Tips Mengenali Gambar Palsu yang Dihasilkan dari Kecerdasan Buatan Generatif

22 Maret 2024 20:40

GenPI.co - Gambar, video, dan audio yang menipu makin banyak jumlahnya akibat maraknya dan penyalahgunaan alat kecerdasan buatan generatif atau deepfake AI.

Dilansir AP News, dengan munculnya deepfake AI hampir setiap hari, yang menggambarkan semua orang mulai dari Taylor Swift hingga Donald Trump, makin sulit untuk membedakan mana yang nyata dan mana yang tidak.

Generator video dan gambar seperti DALL-E, Midjourney, dan Sora OpenAI memudahkan orang yang tidak memiliki keahlian teknis untuk membuat deepfake, cukup ketik permintaan dan sistem akan mengeluarkannya.

BACA JUGA:  Undang-Undang Kecerdasan Buatan di Eropa Sudah Final, Ini yang Terjadi Selanjutnya

Gambar palsu ini mungkin tampak tidak berbahaya. Namun, dapat digunakan untuk melakukan penipuan dan pencurian identitas atau propaganda dan manipulasi pemilu.

Beberapa saran yang dibagikan secara luas – seperti mencari pola kedipan yang tidak wajar di antara orang-orang dalam video deepfake, tidak lagi berlaku, kata Henry Ajder, pendiri perusahaan konsultan Latent Space Advisory dan pakar terkemuka dalam AI generatif.

BACA JUGA:  Kecerdasan Buatan Makin Meningkatkan Ancaman Disinformasi Pemilu di Seluruh Dunia

Namun, masih ada beberapa hal yang perlu diperhatikan, katanya.

Banyak foto deepfake AI , terutama foto manusia, memiliki kilau elektronik, “semacam efek penghalusan estetika” yang membuat kulit “terlihat sangat halus,” kata Ajder.

BACA JUGA:  Amerika Serikat Memelopori Resolusi Pertama PBB Soal Kecerdasan Buatan

Namun, dia memperingatkan bahwa dorongan kreatif terkadang dapat menghilangkan hal ini dan banyak tanda manipulasi AI lainnya.

Periksa konsistensi bayangan dan pencahayaan. Sering kali subjek berada dalam fokus yang jelas dan tampak nyata dan meyakinkan, namun elemen di latar belakang mungkin tidak begitu realistis atau halus.

Tukar wajah adalah salah satu metode deepfake yang paling umum. Para ahli menyarankan untuk melihat lebih dekat pada tepi wajah.

Apakah warna kulit wajah cocok dengan bagian kepala atau badan lainnya? Apakah tepi wajah tajam atau buram?

Jika mencurigai video seseorang yang sedang berbicara telah direkayasa, lihatlah mulutnya. Apakah gerakan bibir mereka cocok dengan audionya?

Ajder menyarankan untuk melihat giginya. Apakah gambarnya jelas, atau buram dan tidak sesuai dengan tampilannya di kehidupan nyata?

Perusahaan keamanan siber Norton mengatakan algoritme mungkin belum cukup canggih untuk menghasilkan gigi satu per satu, jadi kurangnya garis besar gigi bisa menjadi petunjuknya.

Pendekatan lainnya adalah menggunakan AI untuk melawan AI.

Microsoft telah mengembangkan alat autentikator yang dapat menganalisis foto atau video untuk memberikan skor keyakinan apakah foto atau video tersebut telah dimanipulasi. 

FakeCatcher dari pembuat chip Intel menggunakan algoritme untuk menganalisis piksel gambar untuk menentukan apakah itu asli atau palsu. (*)

Silakan baca konten menarik lainnya dari GenPI.co di Google News

Redaktur: Irwina Istiqomah

BERITA TERPOPULER

BERITA TERKAIT

Copyright © 2024 by GenPI.co