Ilmuwan komputer meneliti pembelajaran mesin yang dapat ditafsirkan, mengembangkan AI untuk menjelaskan penemuannya
Machine

Studi menunjukkan laporan palsu yang dihasilkan AI bahkan membodohi para ahli


Kredit: Pixabay/CC0 Domain Publik

Jika Anda menggunakan situs web media sosial seperti Facebook dan Twitter, Anda mungkin menemukan posting yang ditandai dengan peringatan tentang informasi yang salah. Sejauh ini, sebagian besar informasi yang salah—ditandai dan tidak ditandai—telah ditujukan kepada masyarakat umum. Bayangkan kemungkinan misinformasi—informasi yang salah atau menyesatkan—dalam bidang ilmiah dan teknis seperti keamanan siber, keselamatan publik, dan kedokteran.

Ada kekhawatiran yang berkembang tentang penyebaran informasi yang salah di bidang kritis ini sebagai akibat dari bias dan praktik umum dalam menerbitkan literatur ilmiah, bahkan dalam makalah penelitian yang ditinjau oleh rekan sejawat. Sebagai mahasiswa pascasarjana dan sebagai anggota fakultas yang melakukan penelitian di bidang keamanan siber, kami mempelajari jalan baru misinformasi dalam komunitas ilmiah. Kami menemukan bahwa mungkin saja sistem kecerdasan buatan menghasilkan informasi palsu di bidang kritis seperti kedokteran dan pertahanan yang cukup meyakinkan untuk menipu para ahli.

Misinformasi umum seringkali bertujuan untuk mencoreng reputasi perusahaan atau publik figur. Informasi yang salah dalam komunitas keahlian berpotensi menimbulkan hasil yang menakutkan seperti memberikan nasihat medis yang salah kepada dokter dan pasien. Ini bisa membahayakan nyawa.

Untuk menguji ancaman ini, kami mempelajari dampak penyebaran informasi yang salah di komunitas keamanan siber dan medis. Kami menggunakan model kecerdasan buatan yang dijuluki transformer untuk menghasilkan berita keamanan siber palsu dan studi medis COVID-19 dan menyajikan informasi yang salah tentang keamanan siber kepada pakar keamanan siber untuk diuji. Kami menemukan bahwa informasi yang salah yang dihasilkan transformator dapat menipu para pakar keamanan siber.

Transformer

Sebagian besar teknologi yang digunakan untuk mengidentifikasi dan mengelola informasi yang salah didukung oleh kecerdasan buatan. AI memungkinkan ilmuwan komputer untuk memeriksa informasi yang salah dalam jumlah besar dengan cepat, mengingat terlalu banyak yang dapat dideteksi orang tanpa bantuan teknologi. Meskipun AI membantu orang mendeteksi kesalahan informasi, ironisnya AI juga digunakan untuk menghasilkan informasi yang salah dalam beberapa tahun terakhir.

Transformer, seperti BERT dari Google dan GPT dari OpenAI, menggunakan pemrosesan bahasa alami untuk memahami teks dan menghasilkan terjemahan, ringkasan, dan interpretasi. Mereka telah digunakan dalam tugas-tugas seperti bercerita dan menjawab pertanyaan, mendorong batas-batas mesin yang menampilkan kemampuan seperti manusia dalam menghasilkan teks.

Transformers telah membantu Google dan perusahaan teknologi lainnya dengan meningkatkan mesin pencari mereka dan telah membantu masyarakat umum dalam memerangi masalah umum seperti memerangi blok penulis.

Transformer juga dapat digunakan untuk tujuan jahat. Jejaring sosial seperti Facebook dan Twitter telah menghadapi tantangan berita palsu yang dihasilkan AI di seluruh platform.

Informasi yang salah kritis

Penelitian kami menunjukkan bahwa transformer juga menimbulkan ancaman misinformasi dalam kedokteran dan keamanan siber. Untuk mengilustrasikan betapa seriusnya hal ini, kami menyempurnakan model transformator GPT-2 pada sumber online terbuka yang membahas kerentanan keamanan siber dan informasi serangan. Kerentanan keamanan siber adalah kelemahan sistem komputer, dan serangan keamanan siber adalah tindakan yang mengeksploitasi kerentanan. Misalnya, jika kerentanan adalah kata sandi Facebook yang lemah, serangan yang mengeksploitasinya adalah peretas yang mengetahui kata sandi Anda dan membobol akun Anda.

Kami kemudian menyemai model dengan kalimat atau frasa dari sampel intelijen ancaman siber yang sebenarnya dan membuatnya menghasilkan deskripsi ancaman lainnya. Kami menyajikan deskripsi yang dihasilkan ini kepada pemburu ancaman siber, yang menyaring banyak informasi tentang ancaman keamanan siber. Para profesional ini membaca deskripsi ancaman untuk mengidentifikasi potensi serangan dan menyesuaikan pertahanan sistem mereka.

Kami terkejut dengan hasilnya. Contoh misinformasi keamanan siber yang kami hasilkan mampu mengelabui pemburu ancaman siber, yang memiliki pengetahuan tentang semua jenis serangan dan kerentanan keamanan siber. Bayangkan skenario ini dengan bagian penting dari intelijen ancaman siber yang melibatkan industri penerbangan, yang kami hasilkan dalam penelitian kami.

Informasi yang menyesatkan ini berisi informasi yang tidak benar mengenai serangan siber pada maskapai penerbangan dengan data penerbangan real-time yang sensitif. Informasi palsu ini dapat mencegah analis cyber mengatasi kerentanan yang sah dalam sistem mereka dengan mengalihkan perhatian mereka ke bug perangkat lunak palsu. Jika seorang analis dunia maya bertindak berdasarkan informasi palsu dalam skenario dunia nyata, maskapai yang bersangkutan dapat menghadapi serangan serius yang mengeksploitasi kerentanan nyata yang tidak tertangani.

Model berbasis transformator serupa dapat menghasilkan informasi dalam domain medis dan berpotensi menipu para ahli medis. Selama pandemi COVID-19, pracetak makalah penelitian yang belum melalui tinjauan ketat terus-menerus diunggah ke situs-situs seperti medrXiv. Mereka tidak hanya dijelaskan di media tetapi digunakan untuk membuat keputusan kesehatan masyarakat. Pertimbangkan hal berikut, yang tidak nyata tetapi dihasilkan oleh model kami setelah penyesuaian minimal GPT-2 default pada beberapa makalah terkait COVID-19.

Model tersebut mampu menghasilkan kalimat lengkap dan bentuk abstrak yang diduga menggambarkan efek samping vaksinasi COVID-19 dan eksperimen yang dilakukan. Ini meresahkan baik bagi peneliti medis, yang secara konsisten mengandalkan informasi yang akurat untuk membuat keputusan yang tepat, dan bagi anggota masyarakat umum, yang sering mengandalkan berita publik untuk mempelajari informasi kesehatan kritis. Jika diterima sebagai akurat, informasi yang salah semacam ini dapat membahayakan nyawa dengan salah mengarahkan upaya para ilmuwan yang melakukan penelitian biomedis.

Perlombaan senjata AI yang salah informasi?

Meskipun contoh seperti ini dari penelitian kami dapat diperiksa faktanya, misinformasi yang dihasilkan transformator menghalangi industri seperti perawatan kesehatan dan keamanan siber dalam mengadopsi AI untuk membantu mengatasi informasi yang berlebihan. Misalnya, sistem otomatis sedang dikembangkan untuk mengekstrak data dari intelijen ancaman siber yang kemudian digunakan untuk menginformasikan dan melatih sistem otomatis untuk mengenali kemungkinan serangan. Jika sistem otomatis ini memproses teks keamanan siber palsu, mereka akan menjadi kurang efektif dalam mendeteksi ancaman yang sebenarnya.

Kami percaya hasilnya bisa menjadi perlombaan senjata karena orang yang menyebarkan informasi yang salah mengembangkan cara yang lebih baik untuk membuat informasi palsu sebagai tanggapan terhadap cara yang efektif untuk mengenalinya.

Peneliti cybersecurity terus mempelajari cara untuk mendeteksi informasi yang salah di domain yang berbeda. Memahami cara menghasilkan informasi yang salah secara otomatis membantu dalam memahami cara mengenalinya. Misalnya, informasi yang dihasilkan secara otomatis sering kali memiliki kesalahan tata bahasa yang halus sehingga sistem dapat dilatih untuk mendeteksinya. Sistem juga dapat mengkorelasikan informasi dari berbagai sumber dan mengidentifikasi klaim yang kurang mendapat dukungan substansial dari sumber lain.

Pada akhirnya, setiap orang harus lebih waspada tentang informasi apa yang dapat dipercaya dan menyadari bahwa peretas mengeksploitasi kepercayaan orang, terutama jika informasi tersebut bukan dari sumber berita terkemuka atau karya ilmiah yang diterbitkan.


Anda lebih mungkin melawan informasi yang salah jika Anda berpikir orang lain sedang ditipu


Disediakan oleh The Conversation

Artikel ini diterbitkan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel aslinya.Percakapan

Kutipan: Studi menunjukkan laporan palsu yang dihasilkan AI bahkan menipu para ahli (2021, 8 Juni) diambil 8 Juni 2021 dari https://techxplore.com/news/2021-06-ai-generated-fake-experts.html

Dokumen ini tunduk pada hak cipta. Terlepas dari transaksi wajar apa pun untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Result SGP