Peneliti memperluas studi etika, kecerdasan buatan
Robotics

Peneliti memperluas studi etika, kecerdasan buatan


Kredit: CC0

Tentara masa depan akan melibatkan manusia dan mesin otonom yang bekerja sama untuk menyelesaikan misi. Menurut peneliti Angkatan Darat, visi ini hanya akan berhasil jika kecerdasan buatan dianggap etis.

Para peneliti, yang berbasis di Komando Pengembangan Kemampuan Tempur Angkatan Darat AS, sekarang dikenal sebagai DEVCOM, Laboratorium Penelitian Angkatan Darat, Universitas Northeastern, dan Universitas California Selatan, memperluas penelitian yang ada untuk mencakup dilema moral dan pengambilan keputusan yang belum dilakukan di tempat lain.

Penelitian ini, ditampilkan di Frontiers dalam Robotika dan AI, mengatasi tantangan mendasar dalam mengembangkan kecerdasan buatan etis, yang, menurut para peneliti, sebagian besar masih belum dipelajari.

“Mesin otonom, seperti kendaraan otomatis dan robot, siap untuk menyebar di Angkatan Darat,” kata peneliti DEVCOM ARL Dr. Celso de Melo, yang berlokasi di lokasi laboratorium ARL West di Playa Vista, California. “Mesin-mesin ini pasti akan menghadapi dilema moral di mana mereka harus membuat keputusan yang bisa sangat melukai manusia.”

Misalnya, kata de Melo, bayangkan sebuah kendaraan otomatis sedang melaju di terowongan dan tiba-tiba ada lima pejalan kaki yang menyeberang jalan; kendaraan harus memutuskan apakah akan terus bergerak maju dan melukai para pejalan kaki atau berbelok ke arah dinding yang mempertaruhkan pengemudi.

Apa yang harus dilakukan kendaraan otomatis dalam situasi ini?

Pekerjaan sebelumnya telah membingkai dilema ini dalam istilah yang sangat sederhana, membingkai keputusan sebagai hidup dan mati, kata de Melo, mengabaikan pengaruh risiko cedera pada pihak yang terlibat pada hasilnya.

“Dengan memperluas studi dilema moral untuk mempertimbangkan profil risiko situasi, kami secara signifikan memperluas ruang solusi yang dapat diterima untuk dilema ini,” kata de Melo. “Dengan melakukan itu, kami berkontribusi pada pengembangan teknologi otonom yang mematuhi norma moral yang dapat diterima dan dengan demikian lebih mungkin diadopsi dalam praktik dan diterima oleh masyarakat umum.”

Para peneliti fokus pada celah ini dan menyajikan bukti eksperimental bahwa, dalam dilema moral dengan kendaraan otomatis, kemungkinan membuat pilihan utilitarian — yang meminimalkan risiko cedera secara keseluruhan pada manusia dan, dalam hal ini, menyelamatkan pejalan kaki — dimoderasi oleh risiko cedera yang dirasakan pejalan kaki dan pengemudi.

Dalam studi mereka, peserta ditemukan lebih cenderung membuat pilihan utilitarian dengan penurunan risiko bagi pengemudi dan dengan peningkatan risiko bagi pejalan kaki. Namun, yang menarik, sebagian besar bersedia mengambil risiko pada pengemudi (yaitu, pengorbanan diri), bahkan jika risiko bagi pejalan kaki lebih rendah daripada pada pengemudi.

Sebagai kontribusi kedua, para peneliti juga menunjukkan bahwa keputusan moral partisipan dipengaruhi oleh apa yang dilakukan oleh pembuat keputusan lain — misalnya, partisipan cenderung tidak membuat pilihan utilitarian, jika orang lain sering memilih pilihan non-utilitarian.

“Penelitian ini memajukan state-of-the-art dalam studi dilema moral yang melibatkan mesin otonom dengan menjelaskan peran risiko pada pilihan moral,” kata de Melo. “Lebih lanjut, kedua mekanisme ini memperkenalkan peluang untuk mengembangkan AI yang akan dianggap membuat keputusan yang memenuhi standar moral, serta memperkenalkan peluang untuk menggunakan teknologi untuk membentuk perilaku manusia dan mempromosikan masyarakat yang lebih bermoral.”

Untuk Angkatan Darat, penelitian ini sangat relevan dengan modernisasi Angkatan Darat, kata de Melo.

“Karena kendaraan ini menjadi semakin otonom dan beroperasi di lingkungan yang kompleks dan dinamis, mereka pasti menghadapi situasi di mana cedera pada manusia tidak dapat dihindari,” kata de Melo. “Penelitian ini menginformasikan bagaimana menavigasi dilema moral ini dan membuat keputusan yang akan dianggap optimal mengingat keadaan; misalnya, meminimalkan risiko keseluruhan bagi kehidupan manusia.”

Bergerak ke masa depan, para peneliti akan mempelajari jenis analisis risiko-manfaat ini dalam dilema moral Angkatan Darat dan mengartikulasikan implikasi praktis yang sesuai untuk pengembangan sistem AI.

“Saat diterapkan dalam skala besar, keputusan yang dibuat oleh sistem AI bisa sangat penting, khususnya untuk situasi yang melibatkan risiko bagi kehidupan manusia,” kata de Melo. “Sangat penting bahwa AI mampu membuat keputusan yang mencerminkan standar etika masyarakat untuk memfasilitasi adopsi oleh Angkatan Darat dan penerimaan oleh masyarakat umum. Penelitian ini berkontribusi untuk mewujudkan visi ini dengan mengklarifikasi beberapa faktor kunci yang membentuk standar ini. Penelitian ini adalah penting secara pribadi karena AI diharapkan memiliki dampak yang cukup besar bagi Angkatan Darat di masa depan; namun, dampak seperti apa yang akan ditentukan oleh nilai-nilai yang tercermin dalam AI tersebut. ”


Memprogram mesin otonom sebelumnya mendorong pengambilan keputusan tanpa pamrih


Informasi lebih lanjut:
Celso M. de Melo dkk, Risiko Cedera dalam Dilema Moral Dengan Kendaraan Otonom, Frontiers dalam Robotika dan AI (2021). DOI: 10.3389 / frobt.2020.572529

Disediakan oleh Laboratorium Riset Angkatan Darat

Kutipan: Peneliti memperluas studi etika, kecerdasan buatan (2021, 16 Februari) diakses 16 Februari 2021 dari https://techxplore.com/news/2021-02-ethics-artificial-intelligence.html

Dokumen ini memiliki hak cipta. Selain dari transaksi yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Data SGP 2020