Menggunakan AI untuk mendeteksi video palsu dalam yang tampaknya sempurna
HI-Tech

Menggunakan AI untuk mendeteksi video palsu dalam yang tampaknya sempurna


Untuk menemukan pemalsuan yang dalam, para peneliti mencari ketidakkonsistenan antara “penglihatan”, atau formasi mulut, dan “fonem”, bunyi fonetik. Kredit: Universitas Stanford

Satu tahun lalu, Maneesh Agrawala dari Stanford membantu mengembangkan teknologi sinkronisasi bibir yang memungkinkan editor video memodifikasi kata-kata pembicara secara hampir tidak terdeteksi. Alat tersebut dapat dengan mulus memasukkan kata-kata yang tidak pernah diucapkan seseorang, bahkan di tengah kalimat, atau menghilangkan kata-kata yang diucapkannya. Bagi mata telanjang, dan bahkan bagi banyak sistem berbasis komputer, tidak ada yang terlihat salah.

Alat ini mempermudah memperbaiki gangguan tanpa merekam ulang seluruh adegan, serta menyesuaikan acara TV atau film untuk berbagai penonton di tempat berbeda.

Namun teknologi tersebut juga menciptakan peluang baru yang mengkhawatirkan untuk video palsu dalam yang sulit ditemukan yang dibuat dengan tujuan mendistorsi kebenaran. Video Partai Republik baru-baru ini, misalnya, menggunakan teknik yang lebih kasar untuk melakukan wawancara dengan Wakil Presiden Joe Biden.

Musim panas ini, Agrawala dan rekannya di Stanford dan UC Berkeley meluncurkan pendekatan berbasis AI untuk mendeteksi teknologi sinkronisasi bibir. Program baru ini secara akurat menemukan lebih dari 80 persen pemalsuan dengan mengenali ketidakcocokan menit antara suara yang dibuat orang dan bentuk mulut mereka.

Tetapi Agrawala, direktur Institut Inovasi Media Brown di Stanford dan Profesor Ilmu Komputer Forest Baskett, yang juga berafiliasi dengan Institut Kecerdasan Buatan yang Berpusat pada Manusia, memperingatkan bahwa tidak ada solusi teknis jangka panjang untuk pemalsuan yang mendalam.

Tugas sebenarnya, katanya, adalah meningkatkan literasi media agar orang lebih bertanggung jawab jika mereka dengan sengaja memproduksi dan menyebarkan informasi yang salah.

“Karena teknologi untuk memanipulasi video menjadi semakin baik, kemampuan teknologi untuk mendeteksi manipulasi akan semakin buruk,” katanya. “Kami perlu fokus pada cara non-teknis untuk mengidentifikasi dan mengurangi disinformasi dan misinformasi.”

Video manipulasi Biden, misalnya, diekspos bukan karena teknologi melainkan karena orang yang mewawancarai wakil presiden mengetahui bahwa pertanyaannya sendiri telah diubah.

Seberapa dalam pemalsuan bekerja

Ada alasan yang sah untuk memanipulasi video. Siapa pun yang memproduksi acara TV fiksi, film, atau iklan, misalnya, dapat menghemat waktu dan uang dengan menggunakan alat digital untuk membersihkan kesalahan atau mengubah skrip.

Masalahnya muncul ketika alat tersebut sengaja digunakan untuk menyebarkan informasi palsu. Dan banyak teknik yang tidak terlihat oleh pemirsa biasa.

Banyak video palsu yang mengandalkan pertukaran wajah, yang secara harfiah menonjolkan wajah seseorang di atas video orang lain. Tetapi meskipun alat penukar wajah dapat meyakinkan, alat tersebut relatif kasar dan biasanya meninggalkan artefak digital atau visual yang dapat dideteksi oleh komputer.

Teknologi sinkronisasi bibir, di sisi lain, lebih halus dan lebih sulit dikenali. Mereka memanipulasi bagian gambar yang jauh lebih kecil, dan kemudian mensintesis gerakan bibir yang sangat cocok dengan cara mulut seseorang benar-benar akan bergerak jika dia mengucapkan kata-kata tertentu. Dengan sampel gambar dan suara seseorang yang cukup, kata Agrawala, produser palsu bisa membuat seseorang “mengatakan” apa pun.

Menemukan yang palsu

Khawatir tentang penggunaan teknologi yang tidak etis, Agrawala bekerja sama pada alat deteksi dengan Ohad Fried, seorang rekan postdoctoral di Stanford; Hany Farid, seorang profesor di UC Berkeley’s School of Information; dan Shruti Agarwal, seorang mahasiswa doktoral di Berkeley.

Ide dasarnya adalah mencari ketidakkonsistenan antara “penglihatan”, atau formasi mulut, dan “fonem”, bunyi fonetik. Secara khusus, para peneliti melihat mulut orang tersebut saat membuat suara “B”, “M”, atau “P,” karena hampir tidak mungkin untuk membuat suara tersebut tanpa menutup bibir dengan kuat.

Para peneliti pertama kali bereksperimen dengan teknik manual murni, di mana pengamat manusia mempelajari bingkai video. Itu bekerja dengan baik tetapi dalam praktiknya padat karya dan memakan waktu.

Para peneliti kemudian menguji jaringan saraf berbasis AI, yang akan jauh lebih cepat, untuk membuat analisis yang sama setelah melatihnya pada video mantan Presiden Barack Obama. Jaringan syaraf melihat lebih dari 90 persen lip-sync yang melibatkan Obama sendiri, meskipun akurasinya turun menjadi sekitar 81 persen dalam mengenali mereka untuk pembicara lain.

Tes kebenaran yang nyata

Para peneliti mengatakan pendekatan mereka hanyalah bagian dari permainan “kucing-dan-tikus”. Saat teknik pemalsuan mendalam meningkat, mereka akan meninggalkan lebih sedikit petunjuk.

Dalam jangka panjang, kata Agrawala, tantangan sebenarnya bukanlah tentang melawan video palsu yang mendalam, melainkan tentang memerangi disinformasi. Memang, dia mencatat, kebanyakan disinformasi berasal dari distorsi makna dari hal-hal yang sebenarnya dikatakan orang.

“Mendeteksi apakah video telah dimanipulasi berbeda dengan mendeteksi apakah video berisi informasi yang salah atau disinformasi, dan yang terakhir jauh lebih sulit,” kata Agrawala.

“Untuk mengurangi disinformasi, kita perlu meningkatkan literasi media dan mengembangkan sistem akuntabilitas,” katanya. “Itu bisa berarti undang-undang yang melarang dengan sengaja menghasilkan disinformasi dan konsekuensi jika melanggarnya, serta mekanisme untuk memperbaiki kerugian yang ditimbulkan sebagai akibatnya.”


Dalam pertempuran AI versus AI, para peneliti sedang mempersiapkan gelombang propaganda deepfake yang akan datang


Informasi lebih lanjut:
Mendeteksi Video Palsu Besar dari Ketidaksesuaian Fonem-Visem. www.ohadf.com/papers/AgarwalFa… rawala_CVPRW2020.pdf

Disediakan oleh Universitas Stanford

Kutipan: Menggunakan AI untuk mendeteksi video palsu dalam yang tampaknya sempurna (2020, 14 Oktober), diakses pada 27 November 2020 dari https://techxplore.com/news/2020-10-ai-seemingly-deep-fake-videos.html

Dokumen ini memiliki hak cipta. Selain dari transaksi yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Keluaran SGP