Saudi akan menginvestasikan $ 20 miliar dalam AI pada tahun 2030
Machine

AI mungkin salah mengira diskusi catur sebagai pembicaraan rasis


Kredit: Pixabay / CC0 Domain Publik

“The Queen’s Gambit,” serial mini TV baru-baru ini tentang seorang master catur, mungkin telah meningkatkan minat dalam catur, tetapi kata bijak: pembicaraan media sosial tentang warna-warna bidak dapat menyebabkan kesalahpahaman, setidaknya untuk kebencian- perangkat lunak pendeteksi suara.

Itulah yang dicurigai oleh sepasang peneliti Universitas Carnegie Mellon terjadi pada Antonio Radic, atau “agadmator,” seorang pecatur Kroasia yang menjadi tuan rumah saluran YouTube populer. Juni lalu, akunnya diblokir karena konten yang “merugikan dan berbahaya”.

YouTube tidak pernah memberikan penjelasan dan memulihkan saluran dalam waktu 24 jam, kata Ashiqur R. KhudaBukhsh, seorang ilmuwan proyek di Institut Teknologi Bahasa (LTI) CMU. Namun, mungkin saja pembicaraan “hitam vs putih” selama wawancara Radi dengan Grandmaster Hikaru Nakamura memicu perangkat lunak yang secara otomatis mendeteksi bahasa rasis, sarannya.

“Kami tidak tahu alat apa yang digunakan YouTube, tetapi jika mereka mengandalkan kecerdasan buatan untuk mendeteksi bahasa rasis, kecelakaan semacam ini bisa terjadi,” kata KhudaBukhsh. Dan jika itu terjadi di depan umum pada seseorang yang terkenal seperti Radic, itu mungkin terjadi secara diam-diam pada banyak orang lain yang tidak begitu terkenal.

Untuk melihat apakah hal ini dapat dilakukan, KhudaBukhsh dan Rupak Sarkar, insinyur penelitian kursus LTI, menguji dua pengklasifikasi ucapan yang canggih — sejenis perangkat lunak AI yang dapat dilatih untuk mendeteksi indikasi ujaran kebencian. Mereka menggunakan pengklasifikasi untuk menyaring lebih dari 680.000 komentar yang dikumpulkan dari lima saluran YouTube populer yang berfokus pada catur.

Mereka kemudian secara acak mengambil sampel 1.000 komentar yang setidaknya ditandai oleh salah satu pengklasifikasi sebagai ujaran kebencian. Saat meninjau komentar tersebut secara manual, mereka menemukan bahwa sebagian besar — ​​82% —tidak menyertakan perkataan yang mendorong kebencian. Kata-kata seperti hitam, putih, serangan dan ancaman sepertinya menjadi pemicu, kata mereka.

Seperti program AI lainnya yang bergantung pada pembelajaran mesin, pengklasifikasi ini dilatih dengan banyak contoh dan akurasinya dapat bervariasi bergantung pada kumpulan contoh yang digunakan.

Misalnya, KhudaBukhsh mengingat sebuah latihan yang dia temui sebagai seorang siswa, di mana tujuannya adalah untuk mengidentifikasi “anjing malas” dan “anjing aktif” dalam satu set foto. Banyak foto latihan anjing aktif yang memperlihatkan hamparan rumput luas karena anjing pelari sering berada di kejauhan. Akibatnya, program terkadang mengidentifikasi foto yang berisi rumput dalam jumlah besar sebagai contoh anjing yang aktif, meskipun foto tersebut tidak menyertakan seekor anjing pun.

Dalam kasus catur, banyak dari kumpulan data pelatihan kemungkinan menyertakan beberapa contoh pembicaraan catur, yang menyebabkan kesalahan klasifikasi, katanya.

Makalah penelitian oleh KhudaBukhsh dan Sarkar, lulusan Kalyani Government Engineering College di India baru-baru ini, memenangkan Presentasi Tiga Menit Abstrak Siswa Terbaik bulan ini di konferensi tahunan Asosiasi untuk Kemajuan AI.


Ujaran kebencian diimbangi dengan mendeteksi, menyorot ‘ucapan bantuan’


Disediakan oleh Universitas Carnegie Mellon

Kutipan: AI mungkin salah mengira diskusi catur sebagai pembicaraan rasis (2021, 18 Februari) diambil pada 18 Februari 2021 dari https://techxplore.com/news/2021-02-ai-chess-discussions-racist.html

Dokumen ini memiliki hak cipta. Selain dari transaksi yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Result SGP