Manusia siap memanfaatkan AI yang baik hati
Ai

Manusia siap memanfaatkan AI yang baik hati


Bus otonom, di Monheim, Rhine. Kredit: IMAGO / Jochen Tack

Manusia berharap bahwa AI itu baik dan dapat dipercaya. Sebuah studi baru mengungkapkan bahwa pada saat yang sama manusia tidak mau bekerja sama dan berkompromi dengan mesin. Mereka bahkan mengeksploitasinya.

Bayangkan diri Anda mengemudi di jalan sempit dalam waktu dekat ketika tiba-tiba mobil lain muncul dari tikungan di depan. Ini adalah mobil self-driving tanpa penumpang di dalamnya. Apakah Anda akan mendorong dan menegaskan hak jalan Anda, atau memberi jalan untuk membiarkannya berlalu? Saat ini, kebanyakan dari kita berperilaku baik dalam situasi seperti itu yang melibatkan manusia lain. Akankah kita menunjukkan kebaikan yang sama terhadap kendaraan otonom?

Menggunakan metode dari teori permainan perilaku, tim peneliti internasional di LMU Munich dan Universitas London telah melakukan studi online skala besar untuk melihat apakah orang akan berperilaku kooperatif dengan sistem kecerdasan buatan (AI) seperti yang mereka lakukan dengan sesama manusia.

Kerjasama menyatukan masyarakat. Seringkali kita harus berkompromi dengan orang lain dan menerima risiko bahwa mereka mengecewakan kita. Lalu lintas adalah contoh yang baik. Kita kehilangan sedikit waktu ketika kita membiarkan orang lain lewat di depan kita dan marah ketika orang lain gagal membalas kebaikan kita. Apakah kita akan melakukan hal yang sama dengan mesin?

Studi yang dipublikasikan di jurnal iScience menemukan bahwa, pada pertemuan pertama, orang memiliki tingkat kepercayaan yang sama terhadap AI seperti halnya manusia: kebanyakan berharap untuk bertemu seseorang yang siap bekerja sama. Perbedaan datang setelahnya. Orang-orang kurang siap untuk membalas dengan AI, dan malah mengeksploitasi kebaikannya untuk keuntungan mereka sendiri. Kembali ke contoh lalu lintas, seorang pengemudi manusia akan memberi jalan kepada manusia lain tetapi tidak untuk mobil yang mengemudi sendiri. Studi ini mengidentifikasi keengganan untuk berkompromi dengan mesin sebagai tantangan baru bagi masa depan interaksi manusia-AI.

“Kami menempatkan orang pada posisi seseorang yang berinteraksi dengan agen buatan untuk pertama kalinya, karena itu bisa terjadi di jalan,” jelas Jurgis Karpus, Ph.D., ahli teori permainan perilaku dan filsuf di LMU Munich dan penulis pertama studi. “Kami memodelkan berbagai jenis pertemuan sosial dan menemukan pola yang konsisten. Orang-orang mengharapkan agen buatan untuk bekerja sama seperti sesama manusia. Namun, mereka tidak membalas kebaikan mereka sebanyak dan mengeksploitasi AI lebih dari manusia.”

Dengan perspektif dari teori permainan, ilmu kognitif, dan filsafat, para peneliti menemukan bahwa ‘eksploitasi algoritma’ adalah fenomena yang kuat. Mereka mereplikasi temuan mereka di sembilan percobaan dengan hampir 2.000 peserta manusia. Setiap eksperimen meneliti berbagai jenis interaksi sosial dan memungkinkan manusia untuk memutuskan apakah akan berkompromi dan bekerja sama atau bertindak egois. Harapan para pemain lain juga diukur. Dalam permainan terkenal, Dilema Tahanan, orang harus percaya bahwa karakter lain tidak akan mengecewakan mereka. Mereka mengambil risiko dengan manusia dan AI, tetapi mengkhianati kepercayaan AI lebih sering, untuk mendapatkan lebih banyak uang.

“Kerja sama ditopang oleh taruhan bersama: Saya percaya Anda akan baik kepada saya, dan Anda percaya saya akan baik kepada Anda. Kekhawatiran terbesar di bidang kami adalah bahwa orang tidak akan mempercayai mesin. Tapi kami menunjukkan bahwa mereka percaya!” catat Dr. Bahador Bahrami, ahli saraf sosial di LMU, dan salah satu peneliti senior dalam studi tersebut. “Mereka baik-baik saja dengan membiarkan mesin turun, dan itulah perbedaan besar. Orang-orang bahkan tidak melaporkan banyak rasa bersalah ketika mereka melakukannya,” tambahnya.

AI yang bias dan tidak etis telah menjadi berita utama—mulai dari kegagalan ujian 2020 di Inggris Raya hingga sistem peradilan—tetapi penelitian baru ini memunculkan peringatan baru. Industri dan legislator berusaha untuk memastikan bahwa kecerdasan buatan itu baik. Tapi kebajikan bisa menjadi bumerang. Jika orang berpikir bahwa AI diprogram untuk berbaik hati kepada mereka, mereka tidak akan tergoda untuk bekerja sama. Beberapa kecelakaan yang melibatkan mobil self-driving mungkin sudah menunjukkan contoh kehidupan nyata: pengemudi mengenali kendaraan otonom di jalan, dan mengharapkannya untuk menyerah. Sementara itu, kendaraan self-driving mengharapkan kompromi normal antara pengemudi untuk bertahan.”

Eksploitasi algoritma memiliki konsekuensi lebih lanjut. “Jika manusia enggan membiarkan mobil self-driving yang sopan bergabung dari sisi jalan, apakah mobil self-driving harus kurang sopan dan lebih agresif agar bermanfaat?” tanya Jurgis Karpus.

“AI yang baik dan dapat dipercaya adalah kata kunci yang membuat semua orang bersemangat. Tetapi memperbaiki AI bukanlah keseluruhan cerita. Jika kita menyadari bahwa robot di depan kita akan bekerja sama, apa pun yang terjadi, kita akan menggunakannya untuk kepentingan kita sendiri, ” kata Profesor Ophelia Deroy, seorang filsuf dan penulis senior dalam studi tersebut, yang juga bekerja dengan Institut Penelitian Perdamaian Norwegia Oslo tentang implikasi etis dari pengintegrasian tentara robot otonom bersama dengan tentara manusia.

“Kompromi adalah minyak yang membuat masyarakat bekerja. Bagi kita masing-masing, itu hanya terlihat seperti tindakan kecil untuk kepentingan pribadi. Bagi masyarakat secara keseluruhan, itu bisa memiliki dampak yang jauh lebih besar. Jika tidak ada yang membiarkan mobil otonom bergabung dengan lalu lintas, mereka akan membuat kemacetan lalu lintas mereka sendiri di samping, dan tidak membuat transportasi lebih mudah”.


Mari kita buat kesepakatan: Bisakah AI berkompromi lebih baik daripada manusia?


Informasi lebih lanjut:
Jurgis Karpus et al, Eksploitasi algoritma: manusia tertarik untuk mengeksploitasi AI yang baik hati, iScience (2021). DOI: 10.1016/j.isci.2021.102679

Disediakan oleh Ludwig Maximilian University of Munich

Kutipan: Manusia siap memanfaatkan AI yang baik hati (2021, 8 Juni) diambil 8 Juni 2021 dari https://techxplore.com/news/2021-06-humans-ready-advantage-benevolent-ai.html

Dokumen ini tunduk pada hak cipta. Terlepas dari transaksi wajar apa pun untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Toto SGP