Membuat mesin yang lebih memahami tujuan manusia
Spotlight

Membuat mesin yang lebih memahami tujuan manusia


Seorang “agen” dan “pengamat” mendemonstrasikan bagaimana algoritme MIT yang baru mampu menyimpulkan tujuan dan rencana, bahkan ketika rencana tersebut mungkin gagal. Di sini, agen membuat rencana yang salah untuk mencapai permata biru, yang oleh pengamat menyimpulkan sebagai kemungkinan. Kredit: Institut Teknologi Massachusetts

Dalam eksperimen klasik kecerdasan sosial manusia oleh psikolog Felix Warneken dan Michael Tomasello, seorang balita berusia 18 bulan melihat seorang pria membawa setumpuk buku menuju lemari yang belum dibuka. Ketika pria itu mencapai lemari, dia dengan kikuk membenturkan buku-buku ke pintu lemari beberapa kali, lalu membuat suara bingung.

Sesuatu yang luar biasa terjadi selanjutnya: balita itu menawarkan bantuan. Setelah menyimpulkan tujuan pria itu, balita itu berjalan ke lemari dan membuka pintunya, membiarkan pria itu meletakkan bukunya di dalam. Tetapi bagaimana balita, dengan pengalaman hidup yang terbatas, dapat membuat kesimpulan ini?

Baru-baru ini, ilmuwan komputer telah mengarahkan pertanyaan ini ke komputer: Bagaimana mesin dapat melakukan hal yang sama?

Komponen penting untuk merekayasa pemahaman semacam ini bisa dibilang yang membuat kita paling manusiawi: kesalahan kita. Sama seperti balita dapat menyimpulkan tujuan pria hanya dari kegagalannya, mesin yang menyimpulkan tujuan kita perlu memperhitungkan tindakan dan rencana kita yang salah.

Dalam upaya untuk menangkap kecerdasan sosial ini dalam mesin, para peneliti dari Laboratorium Ilmu Komputer dan Kecerdasan Buatan (CSAIL) MIT dan Departemen Ilmu Otak dan Kognitif menciptakan algoritma yang mampu menyimpulkan tujuan dan rencana, bahkan ketika rencana tersebut mungkin gagal.

Jenis penelitian ini pada akhirnya dapat digunakan untuk meningkatkan berbagai teknologi pendukung, robot kolaboratif atau perawatan, dan asisten digital seperti Siri dan Alexa.

“Kemampuan untuk memperhitungkan kesalahan ini bisa menjadi sangat penting untuk membuat mesin yang menyimpulkan dan bertindak sesuai kepentingan kita,” kata Tan Zhi-Xuan, Ph.D. mahasiswa di Departemen Teknik Elektro dan Ilmu Komputer (EECS) MIT dan penulis utama pada makalah baru tentang penelitian ini. “Jika tidak, sistem AI mungkin salah menyimpulkan bahwa, karena kami gagal mencapai tujuan tingkat yang lebih tinggi, tujuan tersebut sama sekali tidak diinginkan. Kami telah melihat apa yang terjadi ketika algoritme memanfaatkan penggunaan media sosial kami yang refleksif dan tidak terencana, memimpin kita menyusuri jalan ketergantungan dan polarisasi. Idealnya, algoritme masa depan akan mengenali kesalahan, kebiasaan buruk, dan irasionalitas kita, serta membantu kita menghindari, alih-alih memperkuatnya. ”

Untuk membuat model mereka, tim menggunakan Gen, platform pemrograman AI baru yang baru-baru ini dikembangkan di MIT, untuk menggabungkan perencanaan AI simbolis dengan inferensi Bayesian. Inferensi Bayes menyediakan cara optimal untuk menggabungkan keyakinan yang tidak pasti dengan data baru, dan digunakan secara luas untuk evaluasi risiko keuangan, pengujian diagnostik, dan perkiraan pemilihan.

Model tim berkinerja 20 hingga 150 kali lebih cepat daripada metode dasar yang ada yang disebut Bayesian Inverse Reinforcement Learning (BIRL), yang mempelajari tujuan, nilai, atau penghargaan agen dengan mengamati perilakunya, dan mencoba menghitung kebijakan atau rencana lengkap sebelumnya. Model baru itu akurat 75 persen dari waktu dalam menyimpulkan tujuan.

“AI sedang dalam proses meninggalkan ‘model standar’ di mana tujuan tetap dan diketahui diberikan ke mesin,” kata Stuart Russell, Profesor Teknik Smith-Zadeh di University of California di Berkeley. “Sebaliknya, mesin tahu bahwa ia tidak mengetahui apa yang kita inginkan, yang berarti bahwa penelitian tentang cara menyimpulkan tujuan dan preferensi dari perilaku manusia menjadi topik utama dalam AI. Makalah ini menanggapi tujuan tersebut dengan serius; khususnya, ini adalah langkah menuju pemodelan — dan karenanya membalik — proses aktual yang digunakan manusia untuk menghasilkan perilaku dari tujuan dan preferensi. “

Bagaimana itu bekerja

Meskipun ada banyak pekerjaan untuk menyimpulkan tujuan dan keinginan agen, banyak dari pekerjaan ini mengasumsikan bahwa agen bertindak secara optimal untuk mencapai tujuan mereka.

Namun, tim tersebut sangat terinspirasi oleh cara umum perencanaan manusia yang sebagian besar kurang optimal: tidak merencanakan semuanya sebelumnya, melainkan hanya membentuk sebagian rencana, melaksanakannya, dan kemudian merencanakan lagi dari sana. Meskipun hal ini dapat menyebabkan kesalahan karena tidak cukup berpikir “sebelumnya”, hal ini juga mengurangi beban kognitif.

Misalnya, bayangkan Anda sedang melihat teman Anda menyiapkan makanan, dan Anda ingin membantu dengan mencari tahu apa yang mereka masak. Anda menebak beberapa langkah selanjutnya yang mungkin diambil teman Anda: mungkin memanaskan oven terlebih dahulu, lalu membuat adonan untuk pai apel. Anda kemudian “menyimpan” hanya sebagian rencana yang tetap konsisten dengan apa yang sebenarnya dilakukan teman Anda, dan kemudian Anda mengulangi prosesnya dengan merencanakan ke depan hanya beberapa langkah dari sana.

Setelah Anda melihat teman Anda membuat adonan, Anda dapat membatasi kemungkinan hanya pada makanan yang dipanggang, dan menebak bahwa mereka mungkin akan mengiris apel berikutnya, atau mendapatkan beberapa pecan untuk campuran pai. Pada akhirnya, Anda akan menghilangkan semua rencana untuk hidangan yang tidak mungkin dibuat oleh teman Anda, hanya menyimpan rencana yang memungkinkan (yaitu, resep pai). Setelah Anda cukup yakin dengan hidangan yang mana, Anda dapat menawarkan bantuan.

Algoritme inferensi tim, yang disebut “Sequential Inverse Plan Search (SIPS)”, mengikuti urutan ini untuk menyimpulkan tujuan agen, karena hanya membuat rencana parsial di setiap langkah, dan memotong rencana yang tidak mungkin sejak awal. Karena model tersebut hanya merencanakan beberapa langkah ke depan setiap kali, model tersebut juga memperhitungkan kemungkinan bahwa agen — teman Anda — mungkin melakukan hal yang sama. Ini termasuk kemungkinan kesalahan karena perencanaan yang terbatas, seperti tidak sadar Anda mungkin memerlukan dua tangan bebas sebelum membuka lemari es. Dengan mendeteksi potensi kegagalan ini sebelumnya, tim berharap model tersebut dapat digunakan oleh mesin untuk menawarkan bantuan dengan lebih baik.

“Salah satu wawasan awal kami adalah bahwa jika Anda ingin menyimpulkan tujuan seseorang, Anda tidak perlu berpikir lebih jauh ke depan daripada yang mereka lakukan. Kami menyadari ini dapat digunakan tidak hanya untuk mempercepat kesimpulan tujuan, tetapi juga untuk menyimpulkan tujuan yang diinginkan dari tindakan yang terlalu berpandangan sempit untuk berhasil, mengarahkan kami untuk beralih dari algoritme penskalaan ke mencari cara untuk menyelesaikan batasan yang lebih mendasar dari sistem AI saat ini, “kata Vikash Mansinghka, ilmuwan peneliti utama di MIT dan salah satu penasihat bersama Tan Zhi-Xuan , bersama dengan Joshua Tenenbaum, profesor MIT dalam ilmu otak dan kognitif. “Ini adalah bagian dari tembakan bulan yang lebih besar — ​​untuk merekayasa balik akal sehat manusia berusia 18 bulan.”

Karya ini dibangun secara konseptual pada model kognitif sebelumnya dari kelompok Tenenbaum, yang menunjukkan bagaimana kesimpulan sederhana yang dibuat oleh anak-anak dan bahkan bayi berusia 10 bulan tentang tujuan orang lain dapat dimodelkan secara kuantitatif sebagai bentuk perencanaan terbalik Bayesian.

Sementara sampai saat ini para peneliti telah mengeksplorasi kesimpulan hanya dalam masalah perencanaan yang relatif kecil atas serangkaian tujuan tetap, melalui pekerjaan masa depan mereka berencana untuk mengeksplorasi hierarki tujuan dan rencana manusia yang lebih kaya. Dengan mengenkode atau mempelajari hierarki ini, mesin mungkin dapat menyimpulkan variasi tujuan yang jauh lebih luas, serta tujuan yang lebih dalam yang dilayaninya.

“Meskipun pekerjaan ini hanya mewakili langkah awal yang kecil, harapan saya adalah penelitian ini akan meletakkan beberapa dasar filosofis dan konseptual yang diperlukan untuk membangun mesin yang benar-benar memahami tujuan, rencana, dan nilai manusia,” kata Xuan. “Pendekatan dasar dalam memodelkan manusia sebagai pemikir yang tidak sempurna ini terasa sangat menjanjikan. Sekarang memungkinkan kita untuk menyimpulkan kapan rencana salah, dan mungkin pada akhirnya akan memungkinkan kita untuk menyimpulkan ketika orang memegang keyakinan, asumsi, dan prinsip panduan yang salah juga.”


Bayi usia sepuluh bulan menentukan nilai suatu tujuan dari seberapa keras seseorang bekerja untuk mencapainya


Informasi lebih lanjut:
Inferensi Tujuan Bayesian Online untuk Agen Perencanaan Rasional-Terikat. arxiv.org/abs/2006.07532

Disediakan oleh Massachusetts Institute of Technology

Kisah ini diterbitkan ulang atas izin MIT News (web.mit.edu/newsoffice/), situs populer yang meliput berita tentang penelitian, inovasi, dan pengajaran MIT.

Kutipan: Membuat mesin yang lebih memahami tujuan manusia (2020, 15 Desember) diakses pada 15 Desember 2020 dari https://techxplore.com/news/2020-12-machines-human-goals.html

Dokumen ini memiliki hak cipta. Selain dari transaksi yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Pengeluaran SGP Hari Ini