Cara baru untuk berpikir tentang pembelajaran mesin
Ai

Cara baru untuk berpikir tentang pembelajaran mesin


Kredit: CC0

Jaringan neural dalam, sistem berlapis-lapis yang dibangun untuk memproses gambar dan data lainnya melalui penggunaan pemodelan matematika, merupakan landasan kecerdasan buatan.

Mereka mampu memberikan hasil yang tampaknya canggih, tetapi mereka juga dapat dibodohi dengan berbagai cara mulai dari yang relatif tidak berbahaya — salah mengidentifikasi satu hewan sebagai hewan lain — hingga berpotensi mematikan jika jaringan yang memandu mobil yang mengemudi sendiri salah menafsirkan tanda berhenti sebagai tanda yang menunjukkan bahwa itu aman untuk melanjutkan.

Seorang filsuf dari University of Houston menyarankan dalam makalah yang diterbitkan di Kecerdasan Mesin Alam bahwa asumsi umum tentang penyebab di balik malfungsi yang seharusnya ini mungkin salah, informasi yang penting untuk mengevaluasi keandalan jaringan ini.

Ketika pembelajaran mesin dan bentuk kecerdasan buatan lainnya menjadi lebih tertanam dalam masyarakat, digunakan dalam segala hal mulai dari mesin teller otomatis hingga sistem keamanan siber, Cameron Buckner, profesor filsafat di UH, mengatakan sangat penting untuk memahami sumber kegagalan nyata yang disebabkan oleh apa peneliti menyebut “contoh permusuhan”, ketika sistem jaringan saraf dalam salah menilai gambar atau data lain saat dihadapkan dengan informasi di luar input pelatihan yang digunakan untuk membangun jaringan. Mereka jarang dan disebut “permusuhan” karena mereka sering dibuat atau ditemukan oleh jaringan pembelajaran mesin lain — semacam brinksmanship dalam dunia pembelajaran mesin antara metode yang lebih canggih untuk membuat contoh permusuhan dan metode yang lebih canggih untuk mendeteksi dan menghindarinya.

“Beberapa dari peristiwa permusuhan ini malah bisa menjadi artefak, dan kita perlu lebih mengetahui apa itu untuk mengetahui seberapa andal jaringan ini,” kata Buckner.

Dengan kata lain, misfire dapat disebabkan oleh interaksi antara apa yang diminta jaringan untuk diproses dan pola aktual yang terlibat. Itu tidak sama dengan salah sepenuhnya.

“Memahami implikasi dari contoh permusuhan membutuhkan eksplorasi kemungkinan ketiga: bahwa setidaknya beberapa dari pola ini adalah artefak,” tulis Buckner. “… Jadi, saat ini ada biaya jika hanya membuang pola-pola ini dan bahaya dalam menggunakannya secara naif.”

Peristiwa permusuhan yang menyebabkan sistem pembelajaran mesin ini membuat kesalahan tidak selalu disebabkan oleh penyimpangan yang disengaja, tetapi di situlah risiko tertinggi masuk.

“Itu berarti aktor jahat dapat menipu sistem yang mengandalkan jaringan yang dapat diandalkan,” kata Buckner. “Itu memiliki aplikasi keamanan.”

Sistem keamanan yang didasarkan pada teknologi pengenalan wajah dapat diretas untuk memungkinkan pelanggaran, misalnya, atau stiker dapat dipasang pada rambu lalu lintas yang menyebabkan mobil yang mengemudi sendiri salah menafsirkan tanda tersebut, meskipun tampak tidak berbahaya bagi pengamat manusia.

Penelitian sebelumnya telah menemukan bahwa, berlawanan dengan asumsi sebelumnya, ada beberapa contoh permusuhan yang terjadi secara alami — saat sistem pembelajaran mesin salah menafsirkan data melalui interaksi yang tidak terduga, bukan melalui kesalahan dalam data. Mereka langka dan hanya dapat ditemukan melalui penggunaan kecerdasan buatan.

Tapi mereka nyata, dan Buckner mengatakan itu menunjukkan perlunya memikirkan kembali bagaimana peneliti mendekati anomali, atau artefak.

Artefak ini belum dipahami dengan baik; Buckner menawarkan analogi pijar lensa dalam sebuah foto — fenomena yang tidak disebabkan oleh cacat pada lensa kamera, tetapi dihasilkan oleh interaksi cahaya dengan kamera.

Pijar lensa berpotensi menawarkan informasi yang berguna — lokasi matahari, misalnya — jika Anda tahu cara menafsirkannya. Hal itu, katanya, menimbulkan pertanyaan apakah peristiwa buruk dalam pembelajaran mesin yang disebabkan oleh artefak juga memiliki informasi yang berguna untuk ditawarkan.

Yang tidak kalah pentingnya, kata Buckner, adalah bahwa cara berpikir baru tentang cara artefak dapat memengaruhi jaringan neural dalam menunjukkan kesalahan membaca oleh jaringan tidak boleh secara otomatis dianggap sebagai bukti bahwa pembelajaran dalam tidak valid.

“Beberapa peristiwa permusuhan ini bisa jadi artefak,” katanya. “Kami harus mengetahui artefak apa ini sehingga kami dapat mengetahui seberapa andal jaringan tersebut.”


Peneliti mengukur keandalan, kepercayaan diri untuk AI generasi berikutnya


Informasi lebih lanjut:
Buckner, C. Memahami contoh permusuhan membutuhkan teori artefak untuk pembelajaran mendalam. Nat Mach Intell (2020). doi.org/10.1038/s42256-020-00266-y

Disediakan oleh University of Houston

Kutipan: Misinformasi atau artefak: Cara baru untuk berpikir tentang pembelajaran mesin (2020, 23 November) diambil pada 27 November 2020 dari https://techxplore.com/news/2020-11-misinformation-artifact-machine.html

Dokumen ini memiliki hak cipta. Selain dari transaksi yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Toto SGP