Saudi akan menginvestasikan $ 20 miliar dalam AI pada tahun 2030
Machine

Peneliti menyelidiki bentuk interaksi baru antara manusia dan mesin


Kredit: Pixabay / CC0 Domain Publik

Memilah-milah aplikasi pekerjaan, menganalisis gambar sinar-X, menyarankan daftar lagu baru — interaksi antara manusia dan mesin telah menjadi bagian integral dari kehidupan modern. Dasar dari proses kecerdasan buatan (AI) ini adalah pengambilan keputusan algoritmik. Namun, karena ini umumnya sulit untuk dipahami, seringkali terbukti kurang bermanfaat daripada yang diantisipasi. Para peneliti di Paderborn dan Bielefeld University berharap untuk mengubah ini, dan mendiskusikan bagaimana penjelasan kecerdasan buatan dapat ditingkatkan dan disesuaikan dengan kebutuhan pengguna manusia. Pekerjaan mereka baru-baru ini diterbitkan di jurnal terkemuka Transaksi IEEE pada Sistem Kognitif dan Perkembangan. Peneliti menggambarkan penjelasan sebagai praktik sosial, di mana kedua belah pihak bersama-sama membangun proses pemahaman.

Riset menjelaskan

“Sistem buatan telah menjadi kompleks. Ini adalah masalah serius — terutama ketika manusia dimintai pertanggungjawaban atas keputusan berbasis komputer,” kata Profesor Philipp Cimiano, ilmuwan komputer di Bielefeld University. Khususnya di bidang prognosis medis atau konteks hukum, kita perlu memahami bagaimana keputusan yang digerakkan oleh mesin dibuat, “lanjut Cimiano. Dia menunjukkan bahwa meskipun sudah ada beberapa pendekatan yang membahas keterjelasan sistem tersebut, namun tidak melangkah jauh. cukup.

Profesor Katharina Rohlfing di Universitas Paderborn setuju bahwa tindakan lebih lanjut sangat dibutuhkan: “Warga negara memiliki hak agar keputusan algoritmik dibuat transparan. Ada alasan bagus mengapa masalah ini secara khusus disebutkan dalam Peraturan Perlindungan Data Umum Uni Eropa.” Tujuan membuat algoritme dapat diakses adalah inti dari apa yang dikenal sebagai “eXplainable Artificial Intelligence (XAI)”: “Dalam penelitian yang dapat dijelaskan, fokusnya saat ini pada hasil transparansi dan interpretabilitas yang diinginkan,” kata Rohlfing, menjelaskan penelitian terbaru.

Memahami bagaimana keputusan dibuat

Tim yang terlibat dalam studi penelitian ini melangkah lebih jauh dan menyelidiki penjelasan berbasis komputer dari berbagai perspektif yang berbeda. Mereka mulai dari asumsi bahwa penjelasan hanya dapat dimengerti oleh pengguna jika tidak hanya disajikan kepada mereka, tetapi jika pengguna terlibat dalam merumuskannya: “Seperti yang kita ketahui dari banyak situasi sehari-hari, penjelasan yang baik tidak ada artinya jika tidak Memperhatikan pengetahuan dan pengalaman orang lain. Siapa pun yang bertanya-tanya mengapa aplikasi mereka ditolak oleh algoritme umumnya tidak tertarik untuk mencari tahu tentang teknologi pembelajaran mesin, melainkan bertanya tentang bagaimana data diproses sehubungan dengan kualifikasi mereka sendiri , “jelas Rohlfing.

“Ketika orang berinteraksi satu sama lain, dialog di antara mereka memastikan bahwa penjelasan disesuaikan dengan pemahaman orang lain. Rekan dialog mengajukan pertanyaan untuk penjelasan lebih lanjut atau dapat mengungkapkan ketidakpercayaan yang kemudian diselesaikan. Dalam kasus kecerdasan buatan ada adalah batasan untuk ini karena ruang lingkup interaksi yang terbatas, “lanjut Rohlfing. Untuk mengatasi hal ini, ahli bahasa, psikolog, peneliti media, sosiolog, ekonom, dan ilmuwan komputer bekerja sama dalam tim interdisipliner. Para ahli ini sedang menyelidiki model komputer dan sistem AI yang kompleks serta peran dalam interaksi komunikatif.

Penjelasan sebagai praktik sosial

Para peneliti Paderborn dan Bielefeld telah mengembangkan kerangka kerja konseptual untuk desain sistem AI yang dapat dijelaskan. Rohlfing mengatakan: “Pendekatan kami memungkinkan sistem AI menjawab pertanyaan yang dipilih sedemikian rupa sehingga prosesnya dapat dikonfigurasi secara interaktif. Dengan cara ini penjelasan dapat disesuaikan dengan mitra dialog, dan aspek sosial dapat disertakan dalam pengambilan keputusan.” Tim peneliti memandang penjelasan sebagai rangkaian tindakan yang dibawa oleh kedua belah pihak dalam bentuk praktik sosial.

Tujuannya agar hal ini dipandu oleh “perancah” dan “pemantauan”. Istilah-istilah ini berasal dari bidang studi perkembangan. “Sederhananya, scaffolding menjelaskan metode di mana proses pembelajaran didukung oleh petunjuk dan panduan, dan dipecah menjadi beberapa langkah. Pemantauan berarti mengamati dan mengevaluasi reaksi pihak lain,” jelas Rohlfing. Tujuan para peneliti adalah untuk menerapkan prinsip-prinsip ini pada sistem AI.

Bentuk bantuan baru

Pendekatan ini bertujuan untuk memperluas penelitian saat ini dan memberikan jawaban baru untuk tantangan masyarakat sehubungan dengan kecerdasan buatan. Asumsi yang mendasari adalah bahwa satu-satunya cara yang berhasil untuk memperoleh pemahaman dan tindakan lebih lanjut dari suatu penjelasan adalah dengan melibatkan mitra dialog dalam proses penjelasan. Pada intinya, ini adalah tentang partisipasi manusia dalam sistem sosio-teknis. “Tujuan kami adalah untuk menciptakan bentuk komunikasi baru dengan sistem AI yang benar-benar dapat dijelaskan dan dimengerti, dan dengan cara ini untuk memfasilitasi bentuk bantuan baru,” kata Rohlfing dalam ringkasan.


Membuat kecerdasan buatan dapat dimengerti: Membangun proses penjelasan


Informasi lebih lanjut:
Katharina J. Rohlfing dkk. Penjelasan sebagai praktik sosial: Menuju kerangka kerja konseptual untuk desain sosial sistem AI, Transaksi IEEE pada Sistem Kognitif dan Perkembangan (2020). DOI: 10.1109 / TCDS.2020.3044366

Disediakan oleh Bielefeld University

Kutipan: Peneliti menyelidiki bentuk baru interaksi antara manusia dan mesin (2021, 9 April) diambil 9 April 2021 dari https://techxplore.com/news/2021-04-interaction-humans-machines.html

Dokumen ini memiliki hak cipta. Selain dari transaksi yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten tersebut disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Result SGP