Model Machine Learning Baru Hilangkan Bias dari Koneksi Jejaring Sosial

Model Machine Learning Baru Hilangkan Bias dari Koneksi Jejaring Sosial

oleh M Hidayat diperbarui 15 Mar 2021, 09:30 WIB
Diterbitkan 15 Mar 2021, 09:30 WIB
Ilustrasi Artificial Intelligence (AI), Machine Learning (ML)
Ilustrasi Artificial Intelligence (AI), Machine Learning (ML). Kredit: Gerd Altmann from Pixabay

Liputan6.com, Jakarta - Pernahkah Anda bertanya-tanya bagaimana layanan jejaring sosial seperti Facebook dan LinkedIn membuat rekomendasi tentang orang-orang yang harus Anda temani atau halaman yang harus Anda ikuti?

Di balik itu ada model Machine Learning yang membuat klasifikasi node berdasarkan data yang dikandungnya tentang pengguna. Data itu termasuk tingkat pendidikan, lokasi, atau afiliasi politik mereka.

Model Machine Learning itu kemudian menggunakan klasifikasi ini untuk merekomendasikan orang dan halaman bagi setiap pengguna.

Namun, terdapat bias yang signifikan di dalam rekomendasi yang dibuat oleh model yang dikenal sebagai Graph Neural Networks (GNN) itu. Bias ini muncul karena model itu mengandalkan fitur pengguna yang sangat terkait dengan atribut sensitif seperti jenis kelamin atau warna kulit.

Menyadari bahwa mayoritas pengguna enggan mempublikasikan atribut sensitif mereka, para peneliti di Penn State College of Information Sciences and Technology telah mengembangkan kerangka kerja baru yang memperkirakan atribut sensitif untuk membantu GNN membuat rekomendasi lebih adil.

Tim peneliti pun menemukan bahwa model mereka, yang disebut FairGNN, mempertahankan performa tinggi pada klasifikasi node menggunakan informasi sensitif terbatas yang disediakan pengguna, sekaligus mengurangi bias.

"Telah banyak dilaporkan bahwa orang cenderung membangun hubungan dengan mereka yang memiliki atribut sensitif yang sama seperti usia dan wilayah," kata Enyan Dai, kandidat doktor di bidang informatika dan penulis utama pada makalah penelitian ini.

"Ada beberapa model pembelajaran mesin yang bertujuan untuk menghilangkan bias, tetapi model itu membutuhkan atribut sensitif orang-orang untuk membuatnya adil dan akurat," tutur Dai lebih lanjut.

Oleh karena itu, Dai dan timnya mengusulkan model lain berdasarkan sangat sedikit atribut sensitif yang mereka miliki dan mempertimbangkan hal lain yang dapat memberikan informasi yang diperlukan.

 

Dataset

Para peneliti melatih model mereka dengan dua dataset: profil pengguna di Pokec, jaringan sosial populer di Slovakia, mirip dengan Facebook dan Twitter; dan dataset sekitar 400 pemain bola basket NBA.

Di dalam dataset Pokec, mereka memperlakukan wilayah di mana setiap pengguna berasal sebagai atribut sensitif, dan menetapkan tugas klasifikasi untuk memprediksi bidang kerja pengguna.

Sementara di dalam dataset NBA, mereka mengidentifikasi pemain sebagai pemain di AS dan mereka yang berada di luar negeri, menggunakan lokasi sebagai atribut sensitif dengan tugas klasifikasi untuk memprediksi apakah gaji setiap pemain melebihi median.

Mereka kemudian menggunakan dataset yang sama untuk menguji model mereka dengan metode canggih lainnya untuk klasifikasi yang adil.

Pertama, mereka mengevaluasi FairGNN dalam hal kinerja keadilan dan klasifikasi. Kemudian, mereka melakukan "studi ablasi", yang menghapus komponen tertentu dari model untuk menguji signifikansi setiap komponen terhadap keseluruhan sistem dalam rangka lebih memperkuat model.

Mereka kemudian menguji apakah FairGNN efektif ketika jumlah atribut sensitif yang berbeda disediakan di data latih.

"Eksperimen kami menunjukkan bahwa kinerja klasifikasi tidak menurun," kata Suhang Wang, asisten profesor ilmu informasi dan teknologi dan peneliti utama pada proyek tersebut. "Namun dalam hal keadilan, kami bisa membuat modelnya jauh lebih adil."

 

Berdampak pada kasus nyata

Menurut para peneliti, kerangka kerja mereka dapat berdampak pada kasus penggunaan dunia nyata lainnya.

"Temuan kami dapat berguna dalam lamaran, seperti peringkat pelamar pekerjaan, deteksi kejahatan atau dalam aplikasi pinjaman keuangan," kata Wang. "Namun, itu adalah domain di mana kami tidak ingin menimbulkan bias. Jadi kami ingin memberikan prediksi yang akurat dengan tetap menjaga keadilan."

Lanjutkan Membaca ↓
Loading

POPULER

Berita Terkini Selengkapnya