Membuka 'kotak hitam' kecerdasan buatan
Machine

Membuka ‘kotak hitam’ kecerdasan buatan


Ketika keputusan dibuat oleh kecerdasan buatan, akan sulit bagi pengguna akhir untuk memahami alasan di baliknya. Kredit: phylevn / Flickr, berlisensi CC BY 2.0

Kecerdasan buatan tumbuh semakin kuat dan memasuki kehidupan sehari-hari manusia, namun seringkali kita tidak tahu apa yang terjadi di dalam sistem ini. Non-transparansi mereka dapat memicu masalah praktis, atau bahkan rasisme, itulah sebabnya para peneliti semakin ingin membuka ‘kotak hitam’ ini dan membuat AI dapat dijelaskan.

Pada Februari 2013, Eric Loomis sedang mengemudi di kota kecil La Crosse di Wisconsin, AS, ketika dia dihentikan oleh polisi. Mobil yang dikendarainya ternyata terlibat dalam penembakan, dan dia ditangkap. Akhirnya pengadilan menjatuhkan hukuman enam tahun penjara.

Ini mungkin kasus yang lancar, seandainya bukan karena teknologi yang membantu hakim dalam membuat keputusan. Mereka menggunakan COMPAS, sebuah algoritma yang menentukan risiko seorang tergugat menjadi residivis. Pengadilan memasukkan berbagai data, seperti informasi demografis terdakwa, ke dalam sistem, yang menghasilkan skor seberapa besar kemungkinan mereka untuk kembali melakukan kejahatan.

Namun, bagaimana algoritme memprediksi hal ini tetap tidak transparan. Sistem, dengan kata lain, adalah kotak hitam — sebuah praktik yang membuat Loomis mengajukan pengaduan tahun 2017 di Mahkamah Agung AS. Dia mengklaim COMPAS menggunakan data jenis kelamin dan ras untuk membuat keputusannya, dan menempatkan Afro-Amerika sebagai risiko residivisme yang lebih tinggi. Pengadilan akhirnya menolak kasusnya, mengklaim hukumannya akan tetap sama bahkan tanpa algoritma. Namun ada juga sejumlah wahyu yang menunjukkan bahwa COMPAS tidak secara akurat memprediksi residivisme.

Adopsi

Sementara sistem penghukuman algoritmik sudah digunakan di AS, di Eropa adopsi mereka umumnya terbatas. Sistem hukuman AI Belanda, yang menilai kasus-kasus pribadi seperti keterlambatan pembayaran kepada perusahaan, misalnya ditutup pada 2018 setelah liputan media kritis. Namun AI telah memasuki bidang lain di seluruh Eropa. Ini diluncurkan untuk membantu dokter Eropa mendiagnosis COVID-19. Dan perusahaan baru seperti British M: QUBE, yang menggunakan AI untuk menganalisis aplikasi hipotek, bermunculan dengan cepat.

Sistem ini menjalankan data historis melalui algoritme, yang kemudian menghasilkan prediksi atau tindakan. Namun seringkali kita tidak tahu bagaimana sistem seperti itu mencapai kesimpulannya. Ini mungkin bekerja dengan benar, atau mungkin ada kesalahan teknis di dalamnya. Bahkan mungkin mereproduksi beberapa bentuk bias, seperti rasisme, tanpa disadari oleh para desainer.

Inilah sebabnya mengapa para peneliti ingin membuka kotak hitam ini, dan membuat sistem AI transparan, atau ‘dapat dijelaskan, “sebuah gerakan yang sekarang semakin populer. Buku Putih UE tentang Kecerdasan Buatan yang dirilis awal tahun ini menyerukan AI yang dapat dijelaskan, perusahaan besar seperti Google dan IBM mendanai penelitian ke dalamnya dan GDPR bahkan menyertakan hak untuk menjelaskan kepada konsumen.

“Kami sekarang mampu menghasilkan model AI yang sangat efisien dalam mengambil keputusan,” kata Fosca Giannotti, peneliti senior di Institut Sains dan Teknologi Informasi Dewan Riset Nasional di Pisa, Italia. “Tapi seringkali model ini tidak mungkin dipahami oleh pengguna akhir, itulah sebabnya AI yang dapat dijelaskan menjadi begitu populer.”

Diagnosa

Giannotti memimpin proyek penelitian tentang AI yang dapat dijelaskan, yang disebut XAI, yang ingin membuat sistem AI mengungkapkan logika internalnya. Proyek ini bekerja pada sistem pendukung keputusan otomatis seperti teknologi yang membantu dokter membuat diagnosis atau algoritme yang merekomendasikan kepada bank apakah akan memberikan pinjaman kepada seseorang atau tidak. Mereka berharap dapat mengembangkan metode teknis atau bahkan algoritme baru yang dapat membantu membuat AI dapat dijelaskan.

“Manusia masih membuat keputusan akhir dalam sistem ini,” kata Giannotti. “Tapi setiap manusia yang menggunakan sistem ini harus memiliki pemahaman yang jelas tentang logika di balik sugesti itu. ‘

Saat ini, rumah sakit dan dokter semakin banyak bereksperimen dengan sistem AI untuk mendukung keputusan mereka, tetapi seringkali tidak menyadari bagaimana keputusan itu dibuat. AI dalam hal ini menganalisis data medis dalam jumlah besar, dan menghasilkan persentase kemungkinan pasien mengidap penyakit tertentu.

Misalnya, sistem mungkin dilatih tentang sejumlah besar foto kulit manusia, yang dalam beberapa kasus menunjukkan gejala kanker kulit. Berdasarkan data tersebut, dapat diprediksi apakah seseorang kemungkinan besar menderita kanker kulit dari gambar baru anomali kulit. Sistem ini belum menjadi praktik umum, tetapi rumah sakit semakin mengujinya, dan mengintegrasikannya dalam pekerjaan sehari-hari.

Sistem ini sering menggunakan metode AI populer yang disebut pembelajaran dalam, yang mengambil banyak sub-keputusan kecil. Ini dikelompokkan ke dalam jaringan dengan lapisan yang dapat berkisar dari beberapa lusin hingga ratusan, membuatnya sangat sulit untuk melihat mengapa sistem menyarankan seseorang menderita kanker kulit, misalnya, atau untuk mengidentifikasi alasan yang salah.

“Kadang-kadang bahkan ilmuwan komputer yang merancang jaringan tidak dapat benar-benar memahami logikanya,” kata Giannotti.

Bahasa alami

Bagi Senén Barro, profesor ilmu komputer dan kecerdasan buatan di Universitas Santiago de Compostela di Spanyol, AI seharusnya tidak hanya dapat membenarkan keputusannya tetapi melakukannya dengan menggunakan bahasa manusia.

“AI yang dapat dijelaskan harus mampu mengkomunikasikan hasil secara alami kepada manusia, tetapi juga proses penalaran yang membenarkan hasil,” kata Prof. Barro.

Dia adalah koordinator ilmiah dari sebuah proyek bernama NL4XAI yang melatih para peneliti tentang bagaimana membuat sistem AI dapat dijelaskan, dengan menjelajahi berbagai sub-area seperti teknik khusus untuk mencapai kemampuan menjelaskan.

Dia mengatakan bahwa hasil akhirnya bisa terlihat mirip dengan chatbot. “Teknologi bahasa alami dapat membangun agen percakapan yang menyampaikan penjelasan interaktif ini kepada manusia,” katanya.

“AI yang dapat dijelaskan harus mampu mengkomunikasikan hasil secara alami kepada manusia, tetapi juga proses penalaran yang membenarkan hasilnya.”

Prof. Senén Barro, Universitas Santiago de Compostela Spanyol

Metode lain untuk memberikan penjelasan adalah sistem memberikan kontrafaktual. “Itu mungkin berarti bahwa sistem memberikan contoh tentang apa yang perlu diubah seseorang untuk mengubah solusi,” kata Giannotti. Dalam kasus algoritme penjurian pinjaman, kontrafaktual mungkin menunjukkan kepada seseorang yang pinjamannya ditolak, kasus terdekat apa yang akan mereka terima. Mungkin dikatakan bahwa gaji seseorang terlalu rendah, tetapi jika mereka memperoleh € 1.000 lebih banyak setiap tahun, mereka akan memenuhi syarat.

kotak putih

Giannotti mengatakan ada dua pendekatan utama untuk menjelaskan. Pertama adalah memulai dari algoritma kotak hitam, yang tidak mampu menjelaskan hasil mereka sendiri, dan menemukan cara untuk mengungkap logika batin mereka. Peneliti dapat melampirkan algoritme lain ke sistem kotak hitam ini — sebuah ‘penjelas’ – yang menanyakan berbagai pertanyaan kotak hitam dan membandingkan hasilnya dengan masukan yang ditawarkan. Dari proses ini penjelas dapat merekonstruksi cara kerja sistem kotak hitam.

“Tapi cara lain adalah membuang kotak hitam, dan menggunakan algoritme kotak putih,” kata Giannotti. Ini adalah sistem pembelajaran mesin yang dapat dijelaskan dengan desain, namun seringkali kurang kuat dibandingkan rekan kotak hitamnya.

“Kami belum bisa mengatakan pendekatan mana yang lebih baik,” Giannotti mengingatkan. “Pilihannya tergantung pada data yang kami kerjakan.” Saat menganalisis data dalam jumlah yang sangat besar, seperti database yang diisi dengan gambar beresolusi tinggi, sistem kotak hitam sering kali diperlukan karena lebih canggih. Namun untuk tugas yang lebih ringan, algoritme kotak putih mungkin berfungsi lebih baik.

Menemukan pendekatan yang tepat untuk mencapai kemampuan menjelaskan masih menjadi masalah besar. Peneliti perlu menemukan langkah-langkah teknis untuk melihat apakah penjelasan benar-benar menjelaskan sistem kotak hitam dengan baik. “Tantangan terbesar adalah dalam menentukan protokol evaluasi baru untuk memvalidasi kebaikan dan keefektifan penjelasan yang dihasilkan,” kata Prof. Barro dari NL4XAI.

Selain itu, definisi pasti dari kemampuan menjelaskan agak tidak jelas, dan bergantung pada situasi di mana ia diterapkan. Seorang peneliti AI yang menulis algoritme akan membutuhkan penjelasan yang berbeda dibandingkan dengan dokter yang menggunakan sistem untuk membuat diagnosis medis.

“Evaluasi manusia (dari keluaran sistem) secara inheren subjektif karena bergantung pada latar belakang orang yang berinteraksi dengan mesin cerdas,” kata Dr. Jose María Alonso, wakil koordinator NL4XAI dan juga peneliti di Universitas Santiago de Compostela.

Namun dorongan untuk AI yang dapat dijelaskan bergerak seiring langkah demi langkah, yang akan meningkatkan kerja sama antara manusia dan mesin. “Manusia tidak akan digantikan oleh AI,” kata Giannotti. “Mereka akan diperkuat oleh komputer. Tetapi penjelasan adalah prasyarat penting untuk kerjasama ini.”


Peneliti meminta AI untuk menjelaskan dirinya sendiri


Disediakan oleh Horizon: Majalah Riset & Inovasi Uni Eropa

Kutipan: Membuka ‘kotak hitam’ kecerdasan buatan (2020, 1 Desember) diambil 1 Desember 2020 dari https://techxplore.com/news/2020-12-black-artificial-intelligence.html

Dokumen ini memiliki hak cipta. Selain dari transaksi yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Result SGP