Pakar PBB membunyikan alarm atas profil rasial yang ditingkatkan AI
Security

Pakar PBB membunyikan alarm atas profil rasial yang ditingkatkan AI


Seorang pria Afrika-Amerika ditangkap secara salah di Detroit tahun ini berdasarkan algoritme yang salah yang mengidentifikasi dia sebagai tersangka perampokan.

Negara-negara harus berbuat lebih banyak untuk memerangi profil rasial, pakar hak asasi PBB mengatakan Kamis, memperingatkan bahwa program kecerdasan buatan seperti pengenalan wajah dan kebijakan prediktif berisiko memperkuat praktik berbahaya tersebut.

Profil rasial bukanlah hal baru, tetapi teknologi yang pernah dilihat sebagai alat untuk membawa lebih banyak objektivitas dan keadilan dalam pemolisian muncul di banyak tempat sehingga membuat masalah menjadi lebih buruk.

“Ada risiko besar bahwa (teknologi AI akan) mereproduksi dan memperkuat bias dan memperburuk atau mengarah pada praktik diskriminatif,” kata pakar hak asasi manusia Jamaika Verene Shepherd kepada AFP.

Dia adalah salah satu dari 18 ahli independen yang membentuk Komite PBB untuk Penghapusan Diskriminasi Rasial (CERD), yang pada hari Kamis menerbitkan panduan tentang bagaimana negara-negara di seluruh dunia harus bekerja untuk mengakhiri profil rasial oleh penegak hukum.

Komite, yang memantau kepatuhan 182 negara penandatangan Konvensi Internasional tentang Penghapusan Semua Bentuk Diskriminasi Rasial, mengangkat keprihatinan khusus atas penggunaan algoritma AI untuk apa yang disebut “kebijakan prediktif” dan “penilaian risiko”.

Sistem tersebut telah disebut-sebut dapat membantu memanfaatkan anggaran polisi yang terbatas dengan lebih baik, tetapi penelitian menunjukkan bahwa sistem tersebut dapat meningkatkan penyebaran ke komunitas yang telah diidentifikasi, benar atau salah, sebagai zona kejahatan tinggi.

‘Putaran umpan balik yang berbahaya’

“Data penangkapan historis tentang suatu lingkungan mungkin mencerminkan praktik perpolisian yang bias rasial,” Shepherd memperingatkan.

“Data seperti itu akan memperdalam risiko pengawasan berlebihan di lingkungan yang sama, yang pada gilirannya dapat menyebabkan lebih banyak penangkapan, menciptakan umpan balik yang berbahaya.”

Saat kecerdasan buatan dan algoritme menggunakan data historis yang bias, prediksi pembuatan profilnya akan mencerminkan hal itu.

“Data buruk masuk, hasil buruk keluar,” kata Shepherd.

“Kami prihatin tentang apa yang membuat asumsi tersebut dan prediksi tersebut.”

Rekomendasi CERD juga mempermasalahkan pertumbuhan penggunaan pengenalan wajah dan teknologi pengawasan dalam kepolisian.

Shepherd mengatakan komite telah menerima sejumlah keluhan tentang kesalahan identifikasi oleh teknologi tersebut, terkadang dengan konsekuensi yang mengerikan, tetapi tidak memberikan contoh spesifik.

Masalah ini muncul ke permukaan dengan penangkapan yang salah di Detroit awal tahun ini terhadap seorang pria Afrika-Amerika, Robert Williams, berdasarkan algoritma yang salah yang mengidentifikasi dia sebagai tersangka perampokan.

Berbagai penelitian menunjukkan sistem pengenalan wajah yang dikembangkan di negara-negara Barat jauh kurang akurat dalam membedakan wajah yang berkulit lebih gelap, mungkin karena sistem tersebut mengandalkan database yang berisi lebih banyak wajah pria berkulit putih.

‘Kesalahan Identifikasi’

“Kami telah mendapat keluhan tentang kesalahan identifikasi karena dari mana teknologi itu berasal, siapa yang membuatnya, dan sampel apa yang mereka miliki di sistem mereka,” kata Shepherd.

“Ini adalah masalah yang nyata.”

CERD menyerukan negara-negara untuk mengatur perusahaan swasta yang mengembangkan, menjual atau mengoperasikan sistem profil algoritmik untuk penegakan hukum.

Negara memiliki tanggung jawab untuk memastikan bahwa sistem tersebut mematuhi hukum hak asasi manusia internasional, katanya, menekankan pentingnya transparansi dalam desain dan penerapan.

Komite mendesak masyarakat harus diberi tahu ketika sistem seperti itu digunakan dan diberitahu bagaimana cara kerjanya, kumpulan data apa yang digunakan dan perlindungan apa yang ada untuk mencegah pelanggaran hak.

Sementara itu, rekomendasi tersebut melampaui dampak teknologi baru, mendesak negara-negara untuk memperkenalkan undang-undang yang melarang semua bentuk diskriminasi rasial oleh penegak hukum.

“Profil rasial mendahului teknologi ini,” kata Shepherd.

Dia mengatakan tahun 2020 — tahun yang ditandai dengan meningkatnya ketegangan rasial di banyak bagian dunia — adalah waktu yang tepat untuk mempresentasikan pedoman baru.

Komite, katanya, “berharap intensifikasi dan globalisasi Black Lives Matter … dan kampanye lain yang menyerukan perhatian terhadap diskriminasi terhadap kelompok rentan tertentu akan membantu (menggarisbawahi) pentingnya rekomendasi tersebut.”


Di tengah penghitungan rasisme polisi, bias algoritme menjadi fokus


© 2020 AFP

Kutipan: Pakar PBB membunyikan alarm atas profil rasial yang ditingkatkan AI (2020, 26 November) diakses 27 November 2020 dari https://techxplore.com/news/2020-11-experts-alarm-ai-enhanced-racial-profiling.html

Dokumen ini memiliki hak cipta. Selain dari transaksi yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Togel Singapore Hari Ini