Meneliti bagaimana manusia mengembangkan kepercayaan terhadap agen virtual yang diwujudkan
Machine

Meneliti bagaimana manusia mengembangkan kepercayaan terhadap agen virtual yang diwujudkan


Peserta membiasakan diri dengan kedua agen dalam pendahuluan, sebelum memulai eksperimen. Kredit: Moradinezhad & Solovey.

Agen virtual yang diwujudkan (EVA), yang secara grafis mewakili karakter virtual 3D yang menampilkan perilaku seperti manusia, dapat memiliki aplikasi berharga dalam berbagai pengaturan. Misalnya, mereka dapat digunakan untuk membantu orang mempraktikkan keterampilan bahasa mereka atau dapat berfungsi sebagai pendamping bagi orang tua dan orang dengan gangguan psikologis atau perilaku.

Para peneliti di Drexel University dan Worcester Polytechnic Institute baru-baru ini melakukan penelitian yang menyelidiki dampak dan pentingnya kepercayaan dalam interaksi antara manusia dan EVA. Makalah mereka, diterbitkan di Springer’s Jurnal Internasional Robotika Sosial, dapat menginformasikan pengembangan EVA yang lebih menyenangkan dan lebih mudah diterima manusia.

“Eksperimen kami dilakukan dalam bentuk dua sesi tanya jawab dengan bantuan dua agen virtual (satu agen untuk setiap sesi),” kata Reza Moradinezhad, salah satu peneliti yang melakukan studi tersebut, kepada TechXplore.

Dalam percobaan yang dilakukan oleh Moradinezhad dan pembimbingnya Dr. Erin T. Solovey, sekelompok peserta disajikan dengan dua set pertanyaan pilihan ganda, yang mereka diminta untuk menjawabnya bekerja sama dengan EVA. Para peneliti menggunakan dua EVA, dijuluki sebagai agen A dan agen B, dan peserta diberi agen yang berbeda untuk setiap rangkaian pertanyaan.

Agen yang digunakan dalam eksperimen berperilaku berbeda; yang satu kooperatif dan yang lainnya tidak kooperatif. Namun, sementara beberapa peserta berinteraksi dengan agen kooperatif saat menjawab satu set pertanyaan dan agen tidak kooperatif saat menjawab yang lain, yang lain ditugaskan sebagai agen kooperatif di kedua kondisi atau agen tidak kooperatif di kedua kondisi.

“Sebelum peserta kami memilih jawaban, dan saat kursor berada di setiap jawaban, agen tersebut menunjukkan ekspresi wajah yang spesifik mulai dari senyum lebar dengan menganggukkan kepala setuju hingga cemberut besar dan menggelengkan kepala karena tidak setuju,” Moradinezhad menjelaskan. “Para peserta memperhatikan bahwa ekspresi wajah yang sangat positif tidak selalu menjadi indikator jawaban yang benar, terutama dalam kondisi ‘tidak kooperatif’.”

Tujuan utama dari studi yang dilakukan oleh Moradinezhad dan Dr. Solovey adalah untuk mendapatkan pemahaman yang lebih baik tentang proses yang digunakan manusia untuk mengembangkan kepercayaan pada EVA. Studi sebelumnya menunjukkan bahwa kepercayaan pengguna pada sistem komputer dapat bervariasi berdasarkan seberapa besar mereka mempercayai manusia lain.

“Misalnya, kepercayaan untuk sistem komputer biasanya tinggi sejak awal karena mereka dilihat sebagai alat, dan saat alat tersedia, Anda mengharapkannya berfungsi sebagaimana mestinya, tetapi keraguan lebih tinggi untuk mempercayai manusia. karena ada lebih banyak ketidakpastian, “kata Moradinezhad. “Namun, jika sistem komputer membuat kesalahan, kepercayaan untuk itu turun dengan cepat karena dipandang sebagai cacat dan diperkirakan akan tetap ada. Dalam kasus manusia, di sisi lain, jika sudah ada kepercayaan, beberapa contoh pelanggaran tidak secara signifikan merusak kepercayaan. ”

Karena EVA memiliki karakteristik yang mirip dengan manusia dan sistem komputer konvensional, Moradinezhad dan Dr. Solovey ingin mengetahui bagaimana manusia mengembangkan kepercayaan terhadap mereka. Untuk melakukan ini, mereka mengamati dengan cermat bagaimana kepercayaan peserta mereka pada EVA berkembang dari waktu ke waktu, dari sebelum mereka mengambil bagian dalam eksperimen hingga saat mereka menyelesaikannya.

“Ini dilakukan dengan menggunakan tiga survei kepercayaan yang identik, meminta peserta untuk menilai kedua agen (yaitu, agen A dan B),” kata Moradinezhad. “Survei baseline pertama adalah setelah sesi pengenalan di mana peserta melihat antarmuka dan kedua agen dan ekspresi wajah tetapi tidak menjawab pertanyaan apa pun. Yang kedua adalah setelah mereka menjawab rangkaian pertanyaan pertama bekerja sama dengan salah satu peserta. agen. “

Pada survei kedua, peneliti juga meminta partisipan untuk menilai kepercayaan mereka pada agen kedua, meski mereka belum berinteraksi dengannya. Ini memungkinkan mereka untuk mengeksplorasi apakah interaksi peserta dengan agen pertama telah memengaruhi kepercayaan mereka pada agen kedua, sebelum mereka berinteraksi dengannya.

“Demikian pula, dalam survei kepercayaan ketiga (setelah set kedua, bekerja dengan agen kedua), kami menyertakan agen pertama juga, untuk melihat apakah interaksi peserta dengan agen kedua mengubah pendapat mereka tentang yang pertama, “Moradinezhad berkata. “Kami juga melakukan wawancara terbuka dengan peserta di akhir eksperimen untuk memberi mereka kesempatan berbagi wawasan tentang eksperimen tersebut.”

Meneliti bagaimana manusia mengembangkan kepercayaan terhadap agen virtual yang diwujudkan

Moradinezhad (kiri) bersiap melakukan tugas di komputer sementara Dr. Solovey (kanan) menyesuaikan sensor fNIRS di dahinya. Data sensor dibaca dan disimpan oleh komputer fNIRS (di latar belakang) untuk analisis lebih lanjut. Kredit: Moradinezhad & Solovey.

Secara keseluruhan, para peneliti menemukan bahwa peserta bekerja lebih baik dalam serangkaian pertanyaan yang mereka jawab dengan agen koperasi dan mengungkapkan kepercayaan yang lebih besar pada agen ini. Mereka juga mengamati pola yang menarik tentang bagaimana kepercayaan peserta bergeser ketika mereka berinteraksi dengan agen koperasi terlebih dahulu, diikuti oleh agen yang tidak kooperatif.

“Dalam kondisi ‘kooperatif-tidak kooperatif’, agen pertama adalah kooperatif, artinya 80% membantu peserta,” kata Morandinezhad. “Tepat setelah sesi pertama, para peserta melakukan survei tentang kepercayaan agen dan peringkat mereka untuk agen pertama sangat rendah, bahkan kadang-kadang sebanding dengan peringkat yang diberikan peserta lain kepada agen yang tidak kooperatif. Ini sejalan dengan hasil penelitian lain yang mengatakan bahwa manusia memiliki ekspektasi tinggi terhadap otomatisasi dan bahkan 80% kerja sama dapat dianggap tidak dapat dipercaya. “

Sementara peserta menilai agen koperasi dengan buruk setelah mereka berkolaborasi dengan mereka di sesi tanya jawab pertama, persepsi mereka tentang agen ini tampaknya berubah jika mereka bekerja dengan agen yang tidak kooperatif di sesi kedua. Dengan kata lain, agen berpengalaman yang menunjukkan perilaku kooperatif dan tidak kooperatif tampaknya mendapatkan apresiasi yang lebih besar untuk agen kooperatif.

“Dalam wawancara terbuka, kami menemukan bahwa peserta mengharapkan agen untuk membantu mereka sepanjang waktu dan ketika untuk beberapa pertanyaan bantuan agen mengarah pada jawaban yang salah, mereka mengira mereka tidak dapat mempercayai agen tersebut,” Morandinezhad menjelaskan. “Namun, setelah bekerja dengan agen kedua dan menyadari bahwa agen bisa jauh lebih buruk daripada agen pertama, mereka, seperti yang dikatakan salah satu peserta, ‘lebih suka’ bekerja dengan agen pertama. Ini menunjukkan bahwa kepercayaan itu relatif. , dan penting untuk mendidik pengguna tentang kemampuan dan kekurangan agen ini. Jika tidak, mereka mungkin akan sepenuhnya mengabaikan agen dan melakukan tugasnya sendiri (seperti yang dilakukan salah satu peserta kami yang kinerjanya jauh lebih buruk daripada anggota grup lainnya. ). “

Pola menarik lainnya yang diamati oleh para peneliti adalah bahwa ketika peserta berinteraksi dengan agen kooperatif di kedua sesi Tanya Jawab, peringkat mereka untuk agen pertama secara signifikan lebih tinggi daripada untuk agen kedua. Penemuan ini sebagian dapat dijelaskan oleh proses psikologis yang dikenal sebagai ‘bias keutamaan’.

“Bias primacy adalah bias kognitif untuk mengingat dan mendukung item yang diperkenalkan paling awal dalam satu seri,” kata Morandinezhad. “Penjelasan lain yang mungkin untuk pengamatan kami adalah karena rata-rata, peserta memiliki kinerja yang lebih rendah pada set pertanyaan kedua, mereka mungkin berasumsi bahwa agen melakukan pekerjaan yang lebih buruk dalam membantu mereka. Ini adalah indikator bahwa agen serupa, bahkan dengan tingkat kinerja yang sama persis, dapat dilihat secara berbeda dalam hal keterpercayaan dalam kondisi tertentu (misalnya, berdasarkan urutan penampilan atau kesulitan tugas yang dihadapi). “

Secara keseluruhan, temuan ini menunjukkan bahwa kepercayaan pengguna terhadap EVA bersifat relatif dan dapat berubah berdasarkan berbagai faktor. Oleh karena itu, ahli robotik tidak boleh berasumsi bahwa pengguna dapat memperkirakan tingkat keandalan agen secara akurat.

“Berdasarkan temuan kami, kami merasa penting untuk mengkomunikasikan batasan agen kepada pengguna untuk memberi mereka indikasi seberapa besar mereka dapat dipercaya,” kata Morandinezhad. “Selain itu, penelitian kami membuktikan bahwa dimungkinkan untuk mengkalibrasi kepercayaan pengguna untuk satu agen melalui interaksi mereka dengan agen lain.”

Di masa depan, temuan yang dikumpulkan oleh Morandinezhad dan Dr. Solovey dapat menginformasikan praktik dalam robotika sosial dan membuka jalan menuju pengembangan agen virtual yang dianggap lebih andal oleh pengguna manusia. Para peneliti sekarang melakukan studi baru yang mengeksplorasi aspek lain dari interaksi antara manusia dan EVA.

“Kami sedang membangun algoritme pembelajaran mesin yang dapat memprediksi apakah pengguna akan memilih jawaban yang disarankan oleh agen untuk setiap pertanyaan tertentu,” kata Morandinezhad. “Idealnya, kami ingin mengembangkan algoritme yang dapat memprediksi hal ini secara real-time. Itu akan menjadi langkah pertama menuju agen cerdas adaptif dan sadar emosional yang dapat belajar dari perilaku masa lalu pengguna, secara akurat memprediksi perilaku berikutnya dan mengkalibrasi perilaku mereka sendiri. perilaku berdasarkan pengguna. “

Dalam studi mereka sebelumnya, para peneliti menunjukkan bahwa tingkat perhatian peserta dapat diukur dengan menggunakan spektroskopi inframerah-dekat fungsional (fNIRS), sebuah antarmuka otak-komputer non-invasif (BCI). Tim lain juga mengembangkan agen yang dapat memberikan umpan balik berdasarkan aktivitas otak yang diukur dengan fNIRS. Dalam pekerjaan masa depan mereka, Morandinezhad dan Dr. Solovey berencana untuk memeriksa lebih lanjut potensi teknik fNIRS untuk meningkatkan interaksi dengan agen virtual.

“Mengintegrasikan data otak ke sistem saat ini tidak hanya memberikan informasi tambahan tentang pengguna untuk meningkatkan akurasi model pembelajaran mesin, tetapi juga membantu agen untuk mendeteksi perubahan tingkat perhatian dan keterlibatan pengguna dan menyesuaikan perilakunya berdasarkan itu, “Morandinezhad berkata. “Dengan demikian, EVA yang membantu pengguna dalam pengambilan keputusan penting akan dapat menyesuaikan sejauh mana saran dan bantuannya berdasarkan kondisi mental pengguna. Misalnya, EVA akan menghasilkan lebih sedikit saran dengan penundaan yang lebih lama di antara masing-masing saat mendeteksi pengguna dalam keadaan normal, tetapi ini akan meningkatkan jumlah dan frekuensi saran jika mendeteksi pengguna stres atau lelah. ”


Apakah kita mempercayai agen kecerdasan buatan untuk menengahi konflik? Tidak semuanya


Informasi lebih lanjut:
Menyelidiki kepercayaan dalam interaksi dengan agen virtual yang diwujudkan yang tidak konsisten. Jurnal Internasional Robotika Sosial(2021). DOI: 10.1007 / s12369-021-00747-z

© 2021 Science X Network

Kutipan: Meneliti bagaimana manusia mengembangkan kepercayaan terhadap agen virtual yang diwujudkan (2021, 3 Mei) diambil 3 Mei 2021 dari https://techxplore.com/news/2021-05-humans-embodied-virtual-agents.html

Dokumen ini memiliki hak cipta. Selain dari transaksi yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten tersebut disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Result SGP