Kecerdasan buatan dapat memperdalam ketidaksetaraan sosial. Berikut 5 cara untuk mencegahnya
Machine

Kecerdasan buatan dapat memperdalam ketidaksetaraan sosial. Berikut 5 cara untuk mencegahnya


Kredit: Shutterstock

Dari pencarian Google dan situs kencan hingga mendeteksi penipuan kartu kredit, kecerdasan buatan (AI) terus menemukan cara baru untuk menyusup ke dalam hidup kita. Tapi bisakah kita mempercayai algoritme yang mendorongnya?

Sebagai manusia, kita melakukan kesalahan. Kita dapat mengalami penyimpangan perhatian dan salah menafsirkan informasi. Namun saat kita menilai kembali, kita dapat menemukan kesalahan kita dan memperbaikinya.

Tetapi ketika sistem AI membuat kesalahan, itu akan diulangi lagi dan lagi tidak peduli berapa kali ia melihat data yang sama dalam keadaan yang sama.

Sistem AI dilatih menggunakan data yang pasti mencerminkan masa lalu. Jika kumpulan data pelatihan berisi bias yang melekat dari keputusan manusia di masa lalu, bias ini dikodifikasi dan diperkuat oleh sistem.

Atau jika berisi lebih sedikit data tentang kelompok minoritas tertentu, prediksi untuk kelompok itu akan cenderung lebih buruk. Ini disebut “bias algoritmik”.

Gradient Institute telah bersama-sama menulis makalah yang menunjukkan bagaimana bisnis dapat mengidentifikasi bias algoritmik dalam sistem AI, dan bagaimana mereka dapat menguranginya.

Pekerjaan tersebut diproduksi atas kerja sama dengan Komisi Hak Asasi Manusia Australia, Pusat Penelitian Kebijakan Konsumen, Data61 CSIRO, dan kelompok advokasi PILIHAN.

Bagaimana bias algoritmik muncul?

Bias algoritmik dapat muncul karena kurangnya data pelatihan yang sesuai, atau sebagai akibat dari desain atau konfigurasi sistem yang tidak tepat.

Misalnya, sistem yang membantu bank memutuskan apakah akan memberikan pinjaman atau tidak biasanya akan dilatih menggunakan kumpulan data besar dari keputusan pinjaman bank sebelumnya (dan data relevan lainnya yang dapat diakses oleh bank).

Sistem dapat membandingkan riwayat keuangan pemohon pinjaman baru, riwayat pekerjaan dan informasi demografis dengan informasi yang sesuai dari pelamar sebelumnya. Dari sini, ia mencoba untuk memprediksi apakah pemohon baru akan dapat melunasi pinjamannya.

Tetapi pendekatan ini bisa menjadi masalah. Salah satu cara di mana bias algoritmik dapat muncul dalam situasi ini adalah melalui bias yang tidak disadari dari manajer pinjaman yang membuat keputusan masa lalu tentang aplikasi hipotek.

Jika nasabah dari kelompok minoritas ditolak pinjamannya tidak adil di masa lalu, AI akan menganggap kemampuan pembayaran umum kelompok-kelompok ini lebih rendah daripada yang sebenarnya.

Kaum muda, orang kulit berwarna, wanita lajang, penyandang disabilitas dan pekerja kerah biru hanyalah beberapa contoh dari kelompok yang mungkin dirugikan.

Bias merugikan baik individu maupun perusahaan

Sistem AI bias yang dijelaskan di atas menimbulkan dua risiko utama bagi bank.

Pertama, bank bisa kehilangan klien potensial, dengan mengirimkan korban bias kepada para pesaingnya. Itu juga bisa dianggap bertanggung jawab di bawah undang-undang anti-diskriminasi.

Jika sistem AI terus menerapkan bias yang melekat dalam keputusannya, akan lebih mudah bagi pemerintah atau kelompok konsumen untuk mengidentifikasi pola sistematis ini. Hal ini dapat menyebabkan denda dan penalti yang besar.

Mengurangi bias algoritmik

Makalah kami membahas beberapa cara di mana bias algoritmik dapat muncul.

Ini juga memberikan panduan teknis tentang bagaimana bias ini dapat dihilangkan, sehingga sistem AI menghasilkan hasil etis yang tidak mendiskriminasi berdasarkan karakteristik seperti ras, usia, jenis kelamin atau kecacatan.

Untuk makalah kami, kami menjalankan simulasi pengecer listrik hipotetis menggunakan alat bertenaga AI untuk memutuskan bagaimana menawarkan produk kepada pelanggan dan dengan syarat apa. Simulasi ini dilatih tentang data historis fiksi yang terdiri dari individu-individu fiksi.

Berdasarkan hasil kami, kami mengidentifikasi lima pendekatan untuk mengoreksi bias algoritmik. Perangkat ini dapat diterapkan ke bisnis di berbagai sektor untuk membantu memastikan sistem AI adil dan akurat.

1. Dapatkan data yang lebih baik

Risiko bias algoritmik dapat dikurangi dengan mendapatkan poin data tambahan atau jenis informasi baru tentang individu, terutama mereka yang kurang terwakili (minoritas) atau mereka yang mungkin muncul secara tidak akurat dalam data yang ada.

2. Pra-proses data

Ini terdiri dari pengeditan kumpulan data untuk menutupi atau menghapus informasi tentang atribut yang terkait dengan perlindungan menurut undang-undang anti diskriminasi, seperti ras atau jenis kelamin.

3. Tingkatkan kompleksitas model

Model AI yang lebih sederhana dapat lebih mudah untuk diuji, dipantau, dan diinterogasi. Tetapi juga bisa menjadi kurang akurat dan mengarah pada generalisasi yang menguntungkan mayoritas daripada minoritas.

4. Ubah sistem

Logika dan parameter sistem AI dapat disesuaikan secara proaktif untuk secara langsung menangkal bias algoritmik. Misalnya, ini dapat dilakukan dengan menetapkan ambang batas keputusan yang berbeda untuk kelompok yang kurang beruntung.

5. Ubah target prediksi

Ukuran khusus yang dipilih untuk memandu sistem AI secara langsung memengaruhi cara sistem membuat keputusan di berbagai kelompok. Menemukan ukuran yang lebih adil untuk digunakan sebagai target prediksi akan membantu mengurangi bias algoritmik.

Pertimbangkan legalitas dan moralitas

Dalam rekomendasi kami kepada pemerintah dan bisnis yang ingin menggunakan pengambilan keputusan AI, kami terutama menekankan pentingnya mempertimbangkan prinsip-prinsip umum keadilan dan hak asasi manusia saat menggunakan teknologi tersebut. Dan ini harus dilakukan sebelum sebuah sistem sedang digunakan.

Kami juga merekomendasikan sistem dirancang dan diuji secara ketat untuk memastikan keluaran tidak tercemar oleh bias algoritmik. Setelah beroperasi, mereka harus diawasi dengan ketat.

Terakhir, kami menyarankan bahwa untuk menggunakan sistem AI secara bertanggung jawab dan etis melampaui kepatuhan pada hukum yang sempit. Ini juga membutuhkan sistem untuk diselaraskan dengan norma sosial yang diterima secara luas — dan mempertimbangkan dampaknya pada individu, komunitas dan lingkungan.

Dengan alat pengambilan keputusan AI yang menjadi hal biasa, kami sekarang memiliki peluang untuk tidak hanya meningkatkan produktivitas, tetapi juga menciptakan masyarakat yang lebih adil dan adil — yaitu, jika kami menggunakannya dengan hati-hati.


Sistem rating dapat mendiskriminasi pengemudi Uber


Disediakan oleh The Conversation

Artikel ini diterbitkan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel aslinya.The Conversation

Kutipan: Kecerdasan buatan dapat memperdalam ketidaksetaraan sosial. Berikut adalah 5 cara untuk mencegah hal ini (2021, 13 Januari) diambil 13 Januari 2021 dari https://techxplore.com/news/2021-01-artificial-intelligence-deepen-social-inequality.html

Dokumen ini memiliki hak cipta. Selain dari transaksi yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Result SGP