Prediksi kecantikan wajah melalui hutan riam yang dalam
Ai

Detektor deepfake bisa dikalahkan, ilmuwan komputer menunjukkan untuk pertama kalinya


Kredit: CC0

Sistem yang dirancang untuk mendeteksi deepfake — video yang memanipulasi rekaman kehidupan nyata melalui kecerdasan buatan — dapat dibohongi, menurut ilmuwan komputer untuk pertama kalinya pada konferensi WACV 2021 yang berlangsung online pada 5 hingga 9 Januari 2021.

Peneliti menunjukkan bahwa detektor dapat dikalahkan dengan memasukkan input yang disebut contoh adversarial ke dalam setiap bingkai video. Contoh permusuhan adalah input yang sedikit dimanipulasi yang menyebabkan sistem kecerdasan buatan seperti model pembelajaran mesin membuat kesalahan. Selain itu, tim tersebut menunjukkan bahwa serangan tersebut masih berfungsi setelah video dikompresi.

“Pekerjaan kami menunjukkan bahwa serangan terhadap detektor deepfake bisa menjadi ancaman dunia nyata,” kata Shehzeen Hussain, Ph.D. mahasiswa dan rekan penulis pertama pada makalah WACV. “Yang lebih mengkhawatirkan, kami menunjukkan bahwa sangat mungkin untuk membuat deepfake musuh yang kuat bahkan ketika musuh mungkin tidak mengetahui cara kerja model pembelajaran mesin yang digunakan oleh detektor.”

Dalam deepfakes, wajah subjek dimodifikasi untuk membuat rekaman kejadian yang realistis dan meyakinkan yang sebenarnya tidak pernah terjadi. Akibatnya, pendeteksi deepfake tipikal fokus pada wajah dalam video: pertama melacaknya, lalu meneruskan data wajah yang dipotong ke jaringan saraf yang menentukan apakah itu asli atau palsu. Misalnya, kedipan mata tidak direproduksi dengan baik pada deepfake, jadi detektor fokus pada gerakan mata sebagai salah satu cara untuk membuat penentuan tersebut. Detektor Deepfake yang canggih mengandalkan model pembelajaran mesin untuk mengidentifikasi video palsu.

Penyebaran luas video palsu melalui platform media sosial telah menimbulkan kekhawatiran yang signifikan di seluruh dunia, terutama menghambat kredibilitas media digital, para peneliti menunjukkan. “Jika penyerang memiliki pengetahuan tentang sistem deteksi, mereka dapat merancang masukan untuk menargetkan titik buta dari detektor dan melewatinya,” kata Paarth Neekhara, rekan penulis pertama makalah dan mahasiswa ilmu komputer UC San Diego.

Peneliti membuat contoh permusuhan untuk setiap wajah dalam bingkai video. Tetapi sementara operasi standar seperti mengompresi dan mengubah ukuran video biasanya menghapus contoh yang merugikan dari gambar, contoh ini dibuat untuk menahan proses ini. Algoritme serangan melakukan ini dengan memperkirakan melalui serangkaian transformasi input bagaimana model memberi peringkat gambar sebagai nyata atau palsu. Dari sana, ia menggunakan estimasi ini untuk mengubah gambar sedemikian rupa sehingga gambar permusuhan tetap efektif bahkan setelah kompresi dan dekompresi.

XceptionNet, detektor palsu yang dalam, memberi label video permusuhan yang dibuat oleh para peneliti sebagai nyata. Kredit: Universitas California San Diego

Versi wajah yang dimodifikasi kemudian dimasukkan ke dalam semua bingkai video. Proses ini kemudian diulangi untuk semua frame dalam video untuk membuat video deepfake. Serangan tersebut juga dapat diterapkan pada detektor yang beroperasi di seluruh bingkai video, bukan hanya pada tanaman wajah.

Tim menolak untuk merilis kode mereka sehingga tidak akan digunakan oleh pihak yang bermusuhan.

Tingkat keberhasilan tinggi

Peneliti menguji serangan mereka dalam dua skenario: satu di mana penyerang memiliki akses penuh ke model detektor, termasuk pipeline ekstraksi wajah dan arsitektur serta parameter model klasifikasi; dan satu di mana penyerang hanya dapat menanyakan model pembelajaran mesin untuk mengetahui probabilitas sebuah bingkai diklasifikasikan sebagai nyata atau palsu. Dalam skenario pertama, tingkat keberhasilan serangan di atas 99 persen untuk video yang tidak terkompresi. Untuk video terkompresi 84,96 persen. Skenario kedua, tingkat keberhasilannya adalah 86,43 persen untuk video tidak terkompresi dan 78,33 persen untuk video terkompresi. Ini adalah karya pertama yang mendemonstrasikan serangan yang berhasil pada detektor deepfake yang canggih.

“Untuk menggunakan detektor deepfake ini dalam praktiknya, kami berpendapat bahwa penting untuk mengevaluasi mereka terhadap musuh adaptif yang menyadari pertahanan ini dan dengan sengaja mencoba untuk menggagalkan pertahanan ini,” tulis para peneliti. “Kami menunjukkan bahwa metode canggih saat ini untuk deteksi deepfake dapat dengan mudah dilewati jika musuh memiliki pengetahuan lengkap atau bahkan sebagian tentang detektor tersebut.”

Untuk meningkatkan detektor, peneliti merekomendasikan pendekatan yang mirip dengan apa yang dikenal sebagai pelatihan adversarial: selama pelatihan, musuh adaptif terus membuat deepfake baru yang dapat melewati kondisi art detector saat ini; dan detektor terus meningkat untuk mendeteksi deepfake baru.


Perubahan yang sangat kecil dapat membantu deepfakes menghindari deteksi


Informasi lebih lanjut:
Shehzeen Hussain dkk, Adversarial Deepfakes: Mengevaluasi Kerentanan Detektor Deepfake terhadap Contoh Adversarial, arXiv: 2002.12749 [cs.CV] , arxiv.org/abs/2002.12749

Disediakan oleh University of California – San Diego

Kutipan: Detektor deepfake dapat dikalahkan, ilmuwan komputer menunjukkan untuk pertama kalinya (2021, 8 Februari) diambil 8 Februari 2021 dari https://techxplore.com/news/2021-02-deepfake-detectors-defrought-scientists.html

Dokumen ini memiliki hak cipta. Selain dari transaksi yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Toto SGP