Benarkah Produk Inteligensia Buatan Bisa Berlaku Rasis?

Salah seorang peneliti inteligensia buatan, Joy Buolamwini, juga mengeluhkan kerugian besar lain akibat inteligensia buatan.

diperbarui 03 Nov 2021, 07:02 WIB
Diterbitkan 03 Nov 2021, 07:02 WIB
Ilustrasi Robot
Ilustrasi Robot

, Jakarta - Kompetisi kecantikan "beauty.ai" menjanjikan obyektifitas dalam memilih orang berparas paling menawan di bumi. Yaitu dengan bantuan inteligensia buatan atau artificial inteligence, yang biasa disingkat AI.

Lebih dari 6.000 selfi sudah diserahkan, dari berbagai bagian dunia. Tapi, hampir semua pemenang berkulit putih, demikian dikutip dari laman DW Indonesia, Rabu (2/11/2021).

Masalahnya: inteligensia buatan dilatih memberikan penilaian dengan data-data wajah orang dari Eropa Tengah. Sedangkan wajah orang dari kawasan dunia lain tidak dikenali dengan baik.

Salah seorang peneliti inteligensia buatan, Joy Buolamwini, juga mengeluhkan kerugian besar lain akibat inteligensia buatan.

"Kita harus semakin menyadari adanya algoritme destruktif misterius yang menyebar luas, dan semakin digunakan untuk mengambil keputusan yang berdampak pada hidup kita."

Buolamwini menjelaskan lebih lanjut, misalnya dalam hal siapa yang dapat pekerjaan, siapa yang dipecat. Apa orang ini dapat pinjaman atau tidak, dapat asuransi, atau dapat tempat kuliah yang diinginkan.

Banyak piranti lunak yang digunakan perusahaan untuk memilih pekerja baru menggunakan kecerdasan buatan. Piranti lunak ini menganalisa bahasa tubuh atau kata-kata yang digunakan.

Pembuat piranti lunak seperti HireVue menjanjikan obyektifitas lebih tinggi, sehingga katanya keanekaragaman dan keadilan genderbisa tercapai

Pakar seperti Lorena Jaume-Palasí meragukan itu. Ia menganalisa 38 piranti lunak untuk proses penerimaan pegawai yang digunakan pemerintah Jerman.

"Banyak dari piranti lunak ini berlandaskan teori yang dalam berbagai ilmu sosial, sosiologi juga psikologi dianggap kontroversial, atau sudah lama usang,“ kata Jaume-Palasí. Di dalamnya tercakup ide-ide yang disebut Big Five.

Big Five dalam piranti lunak adalah: sikap terbuka, bertanggungjawab, menerima ide baru, punya empati dan keyakinan diri. Inteligensia artifisial menempatkan orang pada ibaratnya laci-laci ini, dan menarik kesimpulan tentang kelayakan seseorang.

Misalnya, empati tidak termasuk dalam kategori yang dicari untuk posisi pemimpin. Sementara empati diasosiasikan dengan perempuan. Akhirnya piranti lunak berinterpretasi: perempuan tidak cocok jadi pemimpin!

Masalah lainnya: Big Five adalah nilai-nilai yang berlaku dalam masyarakat Eropa. Jika kita memandang Asia misalnya, bisa dilihat, sikap rajin punya bobot sangat tinggi. Dan itu sama sekali tidak diperhitungkan "tool" yang biasanya digunakan perusahaan besar.

 

Teknologi Digunakan Untuk Evaluasi Orang

Ilustrasi Machine Learning, Deep Learning, Artificial Intelligence, Kecerdasan Buatan
Ilustrasi Machine Learning, Deep Learning, Artificial Intelligence, Kecerdasan Buatan. Kredit: Mohamed Hassan via Pixabay

Uni Eropa juga menggunakan piranti lunak seperti itu untuk proses pencarian pegawai baru. Namanya Cammio. Tapi sekarang fungsi inteligensia buatan yang ada di piranti lunak itu belum mulai digunakan.

Lorena Jaume-Palasí yang juga jadi penasehat pemerintah dalam hal intelegensia artifisial mengatakan, "Saya rasa, kita harus memikirkan dulu, apakah teknologi seperti ini bisa digunakan dalam berbagai hal, yang tujuannya memberikan nilai dan mengevaluasi orang.“

Penyebabnya, karena teknologi ini sebenarnya tidak etis dan tidak sesuai dengan ilmu pengetahuan, dan tidak layak dilempar ke pasaran. Begitu ditekankan Jaume-Palasí yang juga pendiri organisasi non profit Ethical Tech Society

Namun demikian, di seluruh dunia, semakin banyak sistem kecerdasan buatan yang digunakan.

"Kita harus mulai memikirkan bagaimana caranya menciptakan program yang bersifat lebih inklusif dan mengikutsertakan praktik lebih inklusif pula. Ini harus dimulai manusia,“ kata Joy Buolamwini.

Peneliti intelegensia artifisial itu mengemukakan sejumlah hal yang harus dipertimbangkan. Apakah kita menciptakan tim dengan individu beraneka ragam, dan bisa saling melengkapi? Dari segi teknis, apakah kita memperhitungkan keadilan jika mengembangkan sistem?

Kita sekarang punya kesempatan untuk mencapai persamaan dan keadilan, jika kita menjadikan perubahan sosial sebagai prioritas, dan bukan hal sampingan. Demikian ditambahkan Joy Buolamwini.

Menilai orang secara adil, berkaitan dengan tantangan lebih besar. Dan itu menuntut biaya tambahan dari pembuat program inteligensia artifisial.

Lanjutkan Membaca ↓
Loading

POPULER

Berita Terkini Selengkapnya