Facebook menggunakan AI untuk membendung postingan berbahaya dan palsu
Int

Facebook menggunakan AI untuk membendung postingan berbahaya dan palsu


Kredit: Domain Publik Unsplash / CC0

Facebook telah mendapat kritik tajam tahun lalu dari orang-orang yang mengatakan perusahaan tidak berbuat cukup untuk membendung ujaran kebencian, pelecehan online dan penyebaran berita palsu.

Agar adil, tugas mengawasi aktivitas 1,62 miliar pengguna harian yang menghasilkan 4 petabyte data, termasuk 350 juta foto, per hari bukanlah tugas kecil. Tidak mudah menjadi platform sosial terbesar di dunia.

Namun, perusahaan tersebut telah dikritik karena mengizinkan sejumlah kelompok yang memicu kebencian untuk menyebarkan postingan yang menyinggung dan mengancam dan karena mengizinkan kelompok teori konspirasi sayap kanan seperti QAnon dengan bebas menyebarkan tuduhan politik palsu. Analisis akademis dan pemerintah terhadap pemilihan presiden 2016 mengungkap bukti campur tangan besar-besaran oleh aktor dalam dan luar negeri, dan tampaknya upaya serupa juga dilakukan pada pemilu 2020.

Facebook mempekerjakan 15.000 moderator konten untuk meninjau laporan perilaku buruk mulai dari tipu daya politik hingga pelecehan hingga ancaman teroristik hingga eksploitasi anak. Mereka umumnya menangani laporan secara kronologis, seringkali memungkinkan tuduhan yang lebih serius tidak terselesaikan selama berhari-hari sementara masalah yang lebih kecil ditinjau.

Pada hari Jumat, Facebook mengumumkan bahwa mereka akan membawa pembelajaran mesin ke dalam proses moderasi. Ini akan menggunakan algoritme untuk mendeteksi masalah yang paling parah dan menetapkannya ke moderator manusia. Moderator perangkat lunak akan terus menangani penyalahgunaan tingkat rendah seperti pelanggaran hak cipta dan spam.

Facebook mengatakan akan mengevaluasi posting bermasalah berdasarkan tiga kriteria: viralitas, keparahan dan kemungkinan mereka melanggar aturan. Sebuah posting bertabur kecabulan yang mengancam kekerasan di lokasi kerusuhan rasial, misalnya, akan diberikan prioritas utama, baik dihapus secara otomatis oleh mesin atau ditugaskan ke moderator untuk evaluasi dan tindakan segera.

“Semua pelanggaran konten … masih menerima tinjauan manusia yang substansial,” kata Ryan Barnes, manajer produk di tim Integritas Komunitas Facebook. “Kami akan menggunakan sistem ini untuk memprioritaskan konten dengan lebih baik. Kami berharap dapat menggunakan lebih banyak otomatisasi saat pelanggaran konten tidak terlalu parah, terutama jika konten tersebut tidak viral, atau … dibagikan dengan cepat oleh banyak orang.”

Facebook telah dituduh salah menangani akun selama gangguan tingkat tinggi baru-baru ini. Dalam satu contoh, perusahaan itu dituntut setelah penembakan mematikan oleh warga yang turun ke Kenosha, Wisconsin, menyusul protes terhadap petugas polisi yang dengan parah melukai seorang pria kulit hitam setelah melepaskan empat tembakan ke punggungnya selama penangkapan. Gugatan itu menuduh Facebook gagal menghapus halaman kelompok pembenci yang terlibat dalam penembakan main hakim sendiri.

Selama pandemi tahun lalu, sebuah studi oleh organisasi nirlaba menemukan 3,8 miliar tampilan di Facebook berisi konten menyesatkan terkait COVID-19.

Terkadang, kritik muncul dari moderator Facebook yang terlalu berhati-hati. Juni lalu, surat kabar The Guardian mengeluh bahwa para pembaca yang mencoba mengedarkan foto bersejarah yang diterbitkannya diblokir dan diberi peringatan oleh Facebook. Gambar pria Aborigin yang hampir telanjang dirantai di Australia Barat, yang diambil pada tahun 1890-an, dipublikasikan sebagai tanggapan atas penolakan Perdana Menteri Australia Scott Morrison bahwa negaranya tidak pernah terlibat dalam perbudakan. Morrison menarik kembali komentarnya setelah artikel dan fotonya dipublikasikan. Facebook kemudian meminta maaf karena salah mengategorikan foto tersebut sebagai ketelanjangan yang tidak pantas.

Pejabat Facebook mengatakan penerapan pembelajaran mesin adalah bagian dari upaya berkelanjutan untuk menghentikan penyebaran informasi berbahaya, menyinggung, dan menyesatkan sambil memastikan pos yang sah tidak disensor.

Contoh tantangan yang dihadapi Facebook adalah pembentukan kelompok protes besar-besaran dalam semalam secara virtual yang memperebutkan penghitungan pemilu 2020. Grup Facebook yang menuntut penghitungan ulang mengumpulkan 400.000 anggota hanya dalam beberapa hari. Facebook belum memblokir halaman tersebut.

Meskipun tidak ada yang ilegal tentang meminta penghitungan ulang, gelombang pasang surut informasi yang salah mengenai dugaan pelanggaran pemungutan suara — tuduhan yang telah ditolak secara kategoris oleh pejabat di 50 negara bagian dan oleh Partai Republik serta Demokrat minggu lalu —adalah pengingat yang mengganggu tentang potensi informasi palsu untuk membentuk pandangan politik.

“Sistem ini tentang mengawinkan AI dan peninjau manusia untuk membuat kesalahan total yang lebih sedikit,” kata Chris Palow, anggota tim Integritas Facebook. “AI tidak akan pernah sempurna.”


Facebook akan mengekang grup pribadi yang menyebarkan kebencian, misinformasi


Informasi lebih lanjut:
www.theverge.com/2020/11/13/21… cebook-ai-moderation

© 2020 Science X Network

Kutipan: Facebook menggunakan AI untuk membendung postingan berbahaya dan palsu (2020, 14 November), diakses 27 November 2020 dari https://techxplore.com/news/2020-11-facebook-ai-stem-dangerous-false.html

Dokumen ini memiliki hak cipta. Selain dari transaksi yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Bandar Togel