Peneliti mengembangkan algoritma kecerdasan buatan yang 'bisa dijelaskan'
Sciences

Peneliti mengembangkan algoritma kecerdasan buatan yang ‘bisa dijelaskan’


Gambar peta panas digunakan untuk mengevaluasi keakuratan algoritme kecerdasan buatan baru yang dapat dijelaskan yang dikembangkan oleh peneliti U of T dan LG untuk mendeteksi cacat pada layar tampilan LG. Kredit: Mahesh Sudhakar

Para peneliti dari University of Toronto dan LG AI Research telah mengembangkan algoritme kecerdasan buatan (XAI) yang “dapat dijelaskan” yang dapat membantu mengidentifikasi dan menghilangkan cacat pada layar tampilan.

Algoritme baru, yang mengungguli pendekatan yang sebanding pada tolok ukur industri, dikembangkan melalui kolaborasi penelitian AI yang sedang berlangsung antara LG dan U of T yang diperluas pada 2019 dengan fokus pada aplikasi AI untuk bisnis.

Para peneliti mengatakan algoritme XAI berpotensi diterapkan di bidang lain yang memerlukan jendela tentang bagaimana pembelajaran mesin membuat keputusannya, termasuk interpretasi data dari pemindaian medis.

“Penjelasan dan interpretabilitas adalah tentang memenuhi standar kualitas yang kami tetapkan untuk diri kami sendiri sebagai insinyur dan diminta oleh pengguna akhir,” kata Kostas Plataniotis, profesor di departemen teknik elektro dan komputer Edward S. Rogers Sr. di Fakultas Terapan Sains & Teknik. “Dengan XAI, tidak ada ‘satu ukuran yang cocok untuk semua.” Anda harus bertanya untuk siapa Anda mengembangkannya. Apakah ini untuk pengembang pembelajaran mesin lain? Atau untuk dokter atau pengacara? “

Tim peneliti juga termasuk lulusan U of T Engineering Mahesh Sudhakar dan calon master Sam Sattarzadeh, serta peneliti yang dipimpin oleh Jongseong Jang di LG AI Research Canada — bagian dari cabang penelitian dan pengembangan global perusahaan.

XAI adalah bidang baru yang membahas masalah dengan pendekatan ‘kotak hitam’ dari strategi pembelajaran mesin.

Dalam model kotak hitam, komputer mungkin diberi sekumpulan data pelatihan dalam bentuk jutaan gambar berlabel. Dengan menganalisis data, algoritme belajar untuk mengaitkan fitur tertentu dari masukan (gambar) dengan keluaran tertentu (label). Akhirnya, itu dapat dengan benar melampirkan label ke gambar yang belum pernah dilihat sebelumnya.

Mesin memutuskan sendiri aspek gambar mana yang harus diperhatikan dan mana yang harus diabaikan, yang berarti perancangnya tidak akan pernah tahu persis bagaimana hal itu sampai pada hasil.

Tetapi model “kotak hitam” seperti itu menghadirkan tantangan ketika diterapkan pada bidang-bidang seperti perawatan kesehatan, hukum, dan asuransi.

“Misalnya, a [machine learning] Model dapat menentukan bahwa pasien memiliki peluang 90 persen untuk memiliki tumor, “kata Sudhakar.” Konsekuensi dari bertindak atas informasi yang tidak akurat atau bias secara harfiah adalah hidup atau mati. Untuk sepenuhnya memahami dan menafsirkan prediksi model, dokter perlu mengetahui bagaimana algoritme mendapatkannya. “

Peneliti berkembang "bisa dijelaskan" algoritma kecerdasan buatan

Peta panas dari gambar benchmark industri menunjukkan perbandingan kualitatif algoritma XAI tim (SISE, paling kanan) dengan metode XAI mutakhir lainnya. Kredit: Mahesh Sudhakar

Berbeda dengan pembelajaran mesin tradisional, XAI dirancang untuk menjadi pendekatan “kotak kaca” yang membuat pengambilan keputusan menjadi transparan. Algoritme XAI dijalankan secara bersamaan dengan algoritme tradisional untuk mengaudit validitas dan tingkat performa pembelajarannya. Pendekatan tersebut juga memberikan peluang untuk melakukan debugging dan menemukan efisiensi pelatihan.

Sudhakar mengatakan bahwa, secara umum, ada dua metodologi untuk mengembangkan algoritme XAI — masing-masing dengan kelebihan dan kekurangan.

Yang pertama, yang dikenal sebagai propagasi mundur, mengandalkan arsitektur AI yang mendasari untuk menghitung dengan cepat bagaimana prediksi jaringan sesuai dengan inputnya. Yang kedua, yang dikenal sebagai perturbation, mengorbankan beberapa kecepatan untuk akurasi dan melibatkan perubahan input data dan pelacakan output yang sesuai untuk menentukan kompensasi yang diperlukan.

“Mitra kami di LG menginginkan teknologi baru yang menggabungkan keunggulan keduanya,” kata Sudhakar. “Mereka memiliki eksistensi [machine learning] model yang mengidentifikasi suku cadang yang rusak pada produk LG dengan layar, dan tugas kami adalah meningkatkan akurasi peta panas resolusi tinggi dari kemungkinan cacat sambil mempertahankan waktu pengoperasian yang dapat diterima. “

Algoritme XAI yang dihasilkan tim, Semantic Input Sampling for Explanation (SISE), dijelaskan dalam makalah terbaru untuk Konferensi AAAI ke-35 tentang Kecerdasan Buatan.

“Kami melihat potensi di SISE untuk diterapkan secara luas,” kata Plataniotis. “Masalah dan maksud dari skenario tertentu akan selalu membutuhkan penyesuaian pada algoritme — tetapi peta panas atau ‘peta penjelasan’ ini dapat lebih mudah diinterpretasikan, misalnya, oleh seorang profesional medis.”

“Tujuan LG bermitra dengan University of Toronto adalah menjadi pemimpin dunia dalam inovasi AI,” kata Jang. “Pencapaian pertama di XAI ini menunjukkan upaya berkelanjutan perusahaan kami untuk memberikan kontribusi di berbagai bidang, seperti fungsionalitas produk LG, inovasi manufaktur, manajemen rantai pasokan, efisiensi penemuan material, dan lainnya, menggunakan AI untuk meningkatkan kepuasan pelanggan.”

Profesor Deepa Kundur, ketua departemen teknik kelistrikan dan komputer, mengatakan keberhasilan seperti ini adalah contoh bagus dari nilai kerja sama dengan mitra industri.

“Ketika kedua set peneliti datang ke meja dengan sudut pandang masing-masing, seringkali hal itu dapat mempercepat pemecahan masalah,” kata Kundur. “Sangat berharga bagi mahasiswa pascasarjana untuk dihadapkan pada proses ini.”

Meskipun merupakan tantangan bagi tim untuk memenuhi target keakuratan dan jangka waktu yang agresif dalam proyek selama setahun — sambil menyesuaikan zona waktu Toronto / Seoul dan bekerja di bawah batasan COVID-19 — Sudhakar mengatakan peluang untuk menghasilkan solusi praktis untuk pabrikan terkenal di dunia itu sepadan dengan usahanya.

“Itu bagus bagi kami untuk memahami bagaimana, tepatnya, industri bekerja,” kata Sudhakar. “Tujuan LG sangat ambisius, tetapi kami mendapat dukungan yang sangat menggembirakan dari mereka, dengan umpan balik tentang ide atau analogi untuk dieksplorasi. Itu sangat menarik.”


Peneliti Geisinger menemukan AI dapat memprediksi risiko kematian


Informasi lebih lanjut:
Menjelaskan Jaringan Neural Konvolusional melalui Pengambilan Sampel Input Berbasis Atribusi dan Agregasi Fitur Block-Wise. arXiv: 2010.00672v2 [cs.CV] arxiv.org/abs/2010.00672

Disediakan oleh University of Toronto

Kutipan: Peneliti mengembangkan algoritme kecerdasan buatan yang ‘dapat dijelaskan’ (2021, 1 April) diambil 1 April 2021 dari https://techxplore.com/news/2021-04-artificial-intelligence-algorithm.html

Dokumen ini memiliki hak cipta. Selain dari transaksi yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten tersebut disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Hongkong Prize