Model pembelajaran mesin baru dapat menghilangkan bias dari koneksi jejaring sosial
Spotlight

Model pembelajaran mesin baru dapat menghilangkan bias dari koneksi jejaring sosial


Kredit: CC0

Pernahkah Anda bertanya-tanya bagaimana aplikasi jejaring sosial seperti Facebook dan LinkedIn membuat rekomendasi tentang orang-orang yang harus Anda temani atau halaman yang harus Anda ikuti?

Di balik layar adalah model pembelajaran mesin yang mengklasifikasikan node berdasarkan data yang dikandungnya tentang pengguna — misalnya, tingkat pendidikan, lokasi, atau afiliasi politik mereka. Model kemudian menggunakan klasifikasi ini untuk merekomendasikan orang dan halaman untuk setiap pengguna. Namun terdapat bias yang signifikan dalam rekomendasi yang dibuat oleh model ini — dikenal sebagai graph neural network (GNNs) —karena model tersebut mengandalkan fitur pengguna yang sangat terkait dengan atribut sensitif seperti jenis kelamin atau warna kulit.

Menyadari bahwa mayoritas pengguna enggan mempublikasikan atribut sensitif mereka, para peneliti di Penn State College of Information Sciences and Technology telah mengembangkan kerangka kerja baru yang memperkirakan atribut sensitif untuk membantu GNN membuat rekomendasi yang adil.

Tim menemukan bahwa model mereka, yang disebut FairGNN, mempertahankan kinerja tinggi pada klasifikasi node menggunakan informasi sensitif terbatas yang disediakan pengguna, sekaligus mengurangi bias.

“Telah banyak dilaporkan bahwa orang cenderung membangun hubungan dengan mereka yang memiliki atribut sensitif yang sama seperti usia dan wilayah,” kata Enyan Dai, kandidat doktor di bidang informatika dan penulis utama pada makalah penelitian. “Ada beberapa model pembelajaran mesin yang bertujuan untuk menghilangkan bias, tetapi model tersebut membutuhkan atribut sensitif orang-orang untuk membuatnya adil dan akurat. Kami mengusulkan untuk menerapkan model lain berdasarkan sangat sedikit atribut sensitif yang kami miliki (dan sebagai gantinya melihat yang lain memberikan informasi) yang dapat memberi kami pemahaman yang sangat baik untuk memberikan prediksi yang adil terhadap atribut sensitif seperti jenis kelamin dan warna kulit Anda. “

Para peneliti melatih model mereka dengan dua kumpulan data dunia nyata: profil pengguna di Pokec, jaringan sosial populer di Slovakia, mirip dengan Facebook dan Twitter; dan kumpulan data sekitar 400 pemain bola basket NBA. Dalam kumpulan data Pokec, mereka memperlakukan wilayah di mana setiap pengguna berasal sebagai atribut sensitif, dan menetapkan tugas klasifikasi untuk memprediksi bidang kerja pengguna. Dalam data NBA, mereka mengidentifikasi pemain sebagai pemain di AS dan di luar negeri, menggunakan lokasi sebagai atribut sensitif dengan tugas klasifikasi untuk memprediksi apakah gaji setiap pemain melebihi median.

Mereka kemudian menggunakan kumpulan data yang sama untuk menguji model mereka dengan metode canggih lainnya untuk klasifikasi yang adil. Pertama, mereka mengevaluasi FairGNN dalam hal kinerja keadilan dan klasifikasi. Kemudian, mereka melakukan “studi ablasi” —yang menghapus komponen tertentu dari model untuk menguji signifikansi setiap komponen terhadap keseluruhan sistem — untuk lebih memperkuat model. Mereka kemudian menguji apakah FairGNN efektif ketika jumlah atribut sensitif yang berbeda disediakan di set pelatihan.

“Eksperimen kami menunjukkan bahwa kinerja klasifikasi tidak menurun,” kata Suhang Wang, asisten profesor ilmu informasi dan teknologi dan peneliti utama proyek tersebut. “Tapi dalam hal keadilan, kami bisa membuat modelnya jauh lebih adil.”

Menurut para peneliti, kerangka kerja mereka dapat berdampak pada kasus penggunaan dunia nyata lainnya.

“Temuan kami dapat berguna dalam lamaran, seperti peringkat pelamar pekerjaan, deteksi kejahatan atau dalam aplikasi pinjaman keuangan,” kata Wang. “Tapi itu adalah domain di mana kami tidak ingin menimbulkan bias. Jadi kami ingin memberikan prediksi yang akurat dengan tetap menjaga keadilan.”

Menambahkan Dai, “[If] model pembelajaran mesin yang adil ini dapat diperkenalkan dalam aplikasi ini, kami akan memiliki data yang lebih adil dan masalah ini akan teratasi secara bertahap. “

Dai dan Wang mempresentasikan pekerjaan mereka minggu ini di Konferensi Internasional ACM virtual tentang Pencarian Web dan Penambangan Data.


Peneliti mengembangkan algoritma baru yang dapat mengurangi kompleksitas big data


Disediakan oleh Pennsylvania State University

Kutipan: Model pembelajaran mesin baru dapat menghapus bias dari koneksi jejaring sosial (2021, 12 Maret) diambil 12 Maret 2021 dari https://techxplore.com/news/2021-03-machine-bias-social-network.html

Dokumen ini memiliki hak cipta. Selain dari transaksi yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten tersebut disediakan untuk tujuan informasi saja.


Halaman Ini Di Persembahkan Oleh : Pengeluaran SGP Hari Ini