AI semakin sering digunakan untuk mengidentifikasi emosi: Apa yang dipertaruhkan?
Machine

AI semakin sering digunakan untuk mengidentifikasi emosi: Apa yang dipertaruhkan?


Bayangkan Anda sedang dalam wawancara kerja. Saat Anda menjawab pertanyaan perekrut, sistem kecerdasan buatan (AI) memindai wajah Anda, menilai Anda untuk kegugupan, empati, dan ketergantungan. Ini mungkin terdengar seperti fiksi ilmiah, tetapi sistem ini semakin banyak digunakan, seringkali tanpa sepengetahuan atau persetujuan orang.

Teknologi pengenalan emosi (ERT) sebenarnya adalah industri multi-miliar dolar yang sedang berkembang yang bertujuan menggunakan AI untuk mendeteksi emosi dari ekspresi wajah. Namun ilmu di balik sistem pengenalan emosi masih kontroversial: ada bias yang dibangun ke dalam sistem.

Banyak perusahaan menggunakan ERT untuk menguji reaksi pelanggan terhadap produk mereka, dari sereal hingga video game. Tetapi ini juga dapat digunakan dalam situasi dengan taruhan yang jauh lebih tinggi, seperti dalam perekrutan, oleh keamanan bandara untuk menandai wajah yang mengungkapkan penipuan atau ketakutan, dalam pengawasan perbatasan, dalam kepolisian untuk mengidentifikasi “orang berbahaya” atau dalam pendidikan untuk memantau keterlibatan siswa dengan pekerjaan rumah mereka.

Landasan ilmiah yang goyah

Untungnya, teknologi pengenalan wajah mendapat perhatian publik. Film pemenang penghargaan, Coded Bias, yang baru-baru ini dirilis di Netflix, mendokumentasikan penemuan bahwa banyak teknologi pengenalan wajah tidak secara akurat mendeteksi wajah berkulit gelap. Dan tim peneliti yang mengelola ImageNet, salah satu kumpulan data terbesar dan terpenting yang digunakan untuk melatih pengenalan wajah, baru-baru ini terpaksa mengaburkan 1,5 juta gambar sebagai tanggapan atas masalah privasi.

Pengungkapan tentang bias algoritmik dan kumpulan data diskriminatif dalam teknologi pengenalan wajah telah menyebabkan perusahaan teknologi besar, termasuk Microsoft, Amazon, dan IBM, menghentikan penjualan. Dan teknologinya menghadapi tantangan hukum terkait penggunaannya dalam kepolisian di Inggris. Di UE, koalisi lebih dari 40 organisasi masyarakat sipil telah menyerukan larangan sepenuhnya terhadap teknologi pengenalan wajah.

Seperti bentuk pengenalan wajah lainnya, ERT menimbulkan pertanyaan tentang bias, privasi, dan pengawasan massal. Tetapi ERT menimbulkan kekhawatiran lain: ilmu emosi di baliknya masih kontroversial. Kebanyakan ERT didasarkan pada teori “emosi dasar” yang menyatakan bahwa emosi secara biologis terprogram dan diekspresikan dengan cara yang sama oleh orang-orang di mana pun.

Namun, hal ini semakin ditantang. Penelitian dalam antropologi menunjukkan bahwa emosi diekspresikan secara berbeda lintas budaya dan masyarakat. Pada 2019, Association for Psychological Science melakukan peninjauan terhadap bukti-bukti tersebut, menyimpulkan bahwa tidak ada dukungan ilmiah untuk asumsi umum bahwa keadaan emosi seseorang dapat dengan mudah disimpulkan dari gerakan wajah mereka. Singkatnya, ERT dibangun di atas landasan ilmiah yang goyah.

Juga, seperti bentuk teknologi pengenalan wajah lainnya, ERT dikodekan dengan bias rasial. Sebuah penelitian telah menunjukkan bahwa sistem secara konsisten membaca wajah orang kulit hitam sebagai wajah yang lebih marah daripada wajah orang kulit putih, terlepas dari ekspresi orang tersebut. Meskipun studi tentang bias rasial di ERT kecil, bias rasial dalam bentuk pengenalan wajah lainnya telah terdokumentasi dengan baik.

Ada dua cara teknologi ini dapat menyakiti orang, kata peneliti AI Deborah Raji dalam sebuah wawancara dengan MIT Technology Review: “Salah satu caranya adalah dengan tidak bekerja: karena memiliki tingkat kesalahan yang lebih tinggi untuk orang kulit berwarna, itu menempatkan mereka pada risiko yang lebih besar. . Situasi kedua adalah ketika berhasil — di mana Anda memiliki sistem pengenalan wajah yang sempurna, tetapi sistem ini dengan mudah dipersenjatai untuk melawan komunitas untuk melecehkan mereka. ”

Jadi, meskipun teknologi pengenalan wajah bisa tidak bias dan akurat untuk semua orang, itu tetap tidak adil atau adil. Kami melihat efek yang berbeda ini ketika teknologi pengenalan wajah digunakan dalam sistem kepolisian dan peradilan yang sudah diskriminatif dan berbahaya bagi orang kulit berwarna. Teknologi bisa berbahaya jika tidak berfungsi sebagaimana mestinya. Dan mereka juga bisa berbahaya jika bekerja dengan sempurna di dunia yang tidak sempurna.

Tantangan yang diangkat oleh teknologi pengenalan wajah — termasuk ERT — tidak memiliki jawaban yang mudah atau jelas. Memecahkan masalah yang disajikan oleh ERT membutuhkan perpindahan dari etika AI yang berpusat pada prinsip-prinsip abstrak ke etika AI yang berpusat pada praktik dan efek pada kehidupan manusia.

Dalam hal ERT, kita perlu secara kolektif memeriksa ilmu kontroversial tentang emosi yang dibangun ke dalam sistem ini dan menganalisis potensi bias rasial mereka. Dan kita perlu bertanya pada diri sendiri: bahkan jika ERT dapat direkayasa untuk secara akurat membaca perasaan batin setiap orang, apakah kita menginginkan pengawasan yang begitu intim dalam hidup kita? Ini adalah pertanyaan yang membutuhkan pertimbangan, masukan, dan tindakan semua orang.

Proyek ilmu warga

ERT berpotensi mempengaruhi kehidupan jutaan orang, namun hanya ada sedikit pertimbangan publik tentang bagaimana — dan jika — digunakan. Inilah mengapa kami mengembangkan proyek sains warga.

Di situs web interaktif kami (yang berfungsi paling baik di laptop, bukan telepon), Anda dapat mencoba ERT pribadi dan aman untuk diri Anda sendiri, untuk melihat bagaimana ERT memindai wajah Anda dan menafsirkan emosi Anda. Anda juga dapat memainkan game yang membandingkan keterampilan manusia versus AI dalam pengenalan emosi dan belajar tentang ilmu emosi yang kontroversial di balik ERT.

Yang terpenting, Anda dapat menyumbangkan perspektif dan ide Anda untuk menghasilkan pengetahuan baru tentang potensi dampak ERT. Sebagai ilmuwan komputer dan aktivis digital Joy Buolamwini kata: “Jika Anda memiliki wajah, Anda mendapat tempat dalam percakapan.”


Studi menemukan bahwa masker membuat sedikit perbedaan pada identifikasi wajah


Disediakan oleh The Conversation

Artikel ini diterbitkan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel aslinya.

Kutipan: AI semakin sering digunakan untuk mengidentifikasi emosi: Apa yang dipertaruhkan? (2021, 16 April) diambil pada 16 April 2021 dari https://techxplore.com/news/2021-04-ai-increasingly-emotions-stake.html

Dokumen ini memiliki hak cipta. Selain dari transaksi yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten tersebut disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Result SGP