Sebuah strategi untuk meningkatkan interpretabilitas model pengenalan citra
Spotlight

Sebuah strategi untuk meningkatkan interpretabilitas model pengenalan citra


Concept Whitening menguraikan ruang laten jaringan saraf sehingga sumbunya selaras dengan konsep yang telah ditentukan, misalnya, ‘pesawat’, ‘mobil’, dan ‘anjing’. Ini berarti semua informasi tentang konsep yang dikumpulkan oleh jaringan hingga saat itu berjalan melalui satu node konsep itu. Kredit: Chen, Bei & Rudin.

Selama dekade terakhir ini, jaringan saraf dalam telah mencapai hasil yang sangat menjanjikan pada berbagai tugas, termasuk tugas pengenalan gambar. Terlepas dari kelebihannya, jaringan ini sangat kompleks dan canggih, yang membuat menafsirkan apa yang mereka pelajari dan menentukan proses di balik prediksi mereka sulit atau terkadang tidak mungkin. Kurangnya interpretabilitas ini membuat jaringan saraf dalam agak tidak dapat dipercaya dan tidak dapat diandalkan.

Para peneliti dari Laboratorium Analisis Prediksi di Duke University, dipimpin oleh Profesor Cynthia Rudin, baru-baru ini menemukan teknik yang dapat meningkatkan interpretabilitas jaringan saraf dalam. Pendekatan ini, yang disebut pemutihan konsep (CW), pertama kali diperkenalkan dalam makalah yang diterbitkan di Kecerdasan Mesin Alam.

“Daripada melakukan analisis post hoc untuk melihat ke dalam lapisan tersembunyi NN, kami langsung mengubah NN untuk menguraikan ruang laten sehingga sumbu selaras dengan konsep yang diketahui,” Zhi Chen, salah satu peneliti yang melakukan penelitian tersebut. , kepada Tech Xplore. “Keterikatan semacam itu dapat memberi kita pemahaman yang lebih jelas tentang bagaimana jaringan secara bertahap mempelajari konsep di atas lapisan. Ini juga memfokuskan semua informasi tentang satu konsep (misalnya,” lampu “,” tempat tidur “, atau” orang “) untuk dilalui hanya satu neuron; inilah yang dimaksud dengan disentanglement. “

Awalnya, teknik yang dirancang oleh Rudin dan rekan-rekannya mengurai ruang laten jaringan saraf sehingga sumbunya selaras dengan konsep yang diketahui. Pada dasarnya, ia melakukan “transformasi pemutihan”, yang menyerupai cara sinyal diubah menjadi derau putih. Transformasi ini mendekorasi ruang laten. Selanjutnya, matriks rotasi secara strategis mencocokkan konsep yang berbeda dengan sumbu tanpa membalikkan hubungan dekorasi ini.

“CW dapat diterapkan ke setiap lapisan NN untuk mendapatkan interpretabilitas tanpa merusak kinerja prediksi model,” jelas Rudin. “Dalam hal itu, kami mencapai interpretabilitas dengan sedikit usaha, dan kami tidak kehilangan akurasi atas kotak hitam.”

Pendekatan baru ini dapat digunakan untuk meningkatkan interpretabilitas jaringan neural dalam untuk pengenalan gambar tanpa memengaruhi performa dan akurasinya. Selain itu, tidak memerlukan daya komputasi yang ekstensif, yang membuatnya lebih mudah untuk diterapkan di berbagai model dan menggunakan perangkat yang lebih luas.

“Dengan melihat sepanjang sumbu pada lapisan jaringan sebelumnya, kita juga dapat melihat bagaimana ia menciptakan abstraksi konsep,” kata Chen. Misalnya, di lapisan kedua, sebuah pesawat muncul sebagai objek abu-abu dengan latar belakang biru (yang menarik dapat mencakup gambar makhluk laut). Jaringan saraf tidak memiliki banyak kekuatan ekspresif hanya di lapisan kedua, jadi ini menarik untuk memahami bagaimana ia mengekspresikan konsep kompleks seperti ‘pesawat terbang’ di lapisan itu. “

Konsep tersebut dapat segera memungkinkan para peneliti di bidang pembelajaran mendalam untuk melakukan pemecahan masalah pada model yang mereka kembangkan dan mendapatkan pemahaman yang lebih baik tentang apakah proses di balik prediksi model dapat dipercaya atau tidak. Selain itu, meningkatkan interpretabilitas jaringan neural dalam dapat membantu mengungkap kemungkinan masalah dengan kumpulan data pelatihan, memungkinkan pengembang untuk memperbaiki masalah ini dan lebih meningkatkan keandalan model.

“Di masa mendatang, alih-alih mengandalkan konsep yang telah ditentukan sebelumnya, kami berencana untuk menemukan konsep dari kumpulan data, terutama konsep tidak terdefinisi yang berguna yang belum ditemukan,” tambah Chen. “Ini kemudian akan memungkinkan kami untuk secara eksplisit mewakili konsep-konsep yang ditemukan ini di ruang laten jaringan saraf, dengan cara yang tidak terjerat, untuk meningkatkan interpretabilitas.”


Visi komputer jaringan saraf akurat tanpa ‘kotak hitam’


Informasi lebih lanjut:
Pemutihan konsep untuk pengenalan gambar yang dapat diinterpretasikan. Kecerdasan Mesin Alam(2020). DOI: 10.1038 / s42256-020-00265-z.

users.cs.duke.edu/~cynthia/lab.html

Disediakan oleh Science X Network

© 2021 Science X Network

Kutipan: Pemutihan konsep: Sebuah strategi untuk meningkatkan interpretabilitas model pengenalan gambar (2021, 13 Januari) diakses 13 Januari 2021 dari https://techxplore.com/news/2021-01-concept-whitening-strategy-image-recognition.html

Dokumen ini memiliki hak cipta. Selain dari transaksi yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Pengeluaran SGP Hari Ini