4 Fakta yang Terungkap dari Facebook Papers

Berikut adalah fakta yang mengejutkan tentang media sosial bentukan Mark Zuckerberg yang terungkap dalam Facebook Papers.

oleh Yuslianson diperbarui 26 Okt 2021, 12:00 WIB
Diterbitkan 26 Okt 2021, 12:00 WIB
Ilustrasi Facebook
Ilustrasi Facebook (Photo by Joshua Hoehne on Unsplash)

Liputan6.com, Jakarta - Facebook kembali menjadi sorotan publik setelah konsorsium yang beranggotakan 17 organisasi berita Amerika Serikat (AS) menerbitkan artikel bernama "Facebook Papers."

Berdasarkan dokumen yang dibocorkan oleh Frances Haugen, terungkap dugaan perusahaan bentukan Mark Zuckerberg itu lebih "mementingkan keuntungan di atas keselamatan pengguna."

Hal ini terbukti lewat ribuan halaman memo yang bocor dan menjelaskan seperti apa kondisi di dalam perusahaan, dan bagaimana Facebook menyikapi permasalahan tersebut secara internal.

Raksasa media sosial itu kembali menjadi sorotan regulator AS setelah Frances Haugen, salah satu mantan karyawan Facebook, bersaksi di hadapan Kongres pada awal bulan ini.

Dalam kesaksiannya, Haugen mengungkap Facebook tidak melakukan tindakan yang cukupuntuk memastikan keamanan 2,9 miliar penggunanya, menganggap sepele postingan disinformasi, hingga menyesatkan persepsi investor dan publik.

Berikut adalah fakta yang mengejutkan tentang media sosial bentukan Mark Zuckerberg yang terungkap dalam Facebook Papers. 

* Untuk mengetahui kebenaran informasi yang beredar, silakan WhatsApp ke nomor 0811 9787 670 hanya dengan ketik kata kunci yang diinginkan.

Masalah Besar di Bahasa

Ilustrasi Facebook (Foto: New Mobility)

Facebook acap kali dituduh gagal memoderasi ujaran kebencian di situs berbahasa Inggris-nya. Tetapi, masalah tersebut jauh lebih buruk di negara-negara dengan bahasa lainnya.

Padahal sebelumnya, perusahaan berjanji bakal berinvestasi lebih besar setelah disalahkan atas perannya memfasilitasi genosida di Myanmar pada 2017.

Sebuah dokumen pada 2021 mengungkap, tentang jumlah moderator konten dalam dialek Arab sangat sedikit digunakan di Arab Saudi, Yaman, dan Libya.

Sementara itu di Afghanistan, di mana Facebook memiliki 5 juta pengguna, sebuah studi menemukan halaman yang menjelaskan cara melaporkan ujaran kebencian di platform medsos itu ternyata diterjemahkan secara salah.

Facebook juga menandai beberapa negara dengan label "berisiko tinggi" karena lanskap politik negara tersebut dianggap rapuh, dan berdasarkan frekuensi ujaran kebencian.

Menurut satu dokumen, perusahaan mengalokasikan 87 persen anggarannya untuk mengembangkan algoritme pendeteksian disinformasi di AS pada 2020, dibandingkan 13 persen ke seluruh dunia.

Haugen mengatakan Facebook harus transparan tentang sumber daya yang dimilikinya berdasarkan negara dan bahasa.

Tidak Tahu Cara Kerja Algoritme Buatan Sendiri

Ilustrasi Facebook. Dok: theverge.com

Sejumlah dokumen mengungkap, Facebook ternyata kebingungan dengan algoritme buatan mereka sendiri. Hal ini diketahui lewat sebuah memo yang diterbitkan pada September 2019.

Laki-laki cenderung mengikuti (follow) akun yang memproduksi konten politik, memo itu mengatakan algoritme peringkat feed Facebook juga memainkan peran penting.

Memo lainnya dari Juni 2020 menemukan "hampir dapat dipastikan," "sistem utama Facebook menunjukkan kecenderungan untuk mendukung atau menentang sebuah hal secara sistemik berdasarkan ras pengguna yang terpengaruh."

Pengguna Sulit Laporkan Ujaran Kebencian

(ilustrasi/guim.co.uk)

Facebook sejak lama mengatakan, program kecerdasan buatannya (AI) dapat mendeteksi dan menghapus ujaran kebencian dan penyalahgunaan. Akan tetapi, sebuah memo mengungkap keterbatasan AI tersebut menghadapinya di dunia nyata.

Menurut catatan pada Maret 2021 oleh sekelompok peneliti, perusahaan mengambil tindakan hanya pada 3 hingga 5 persen dari ujaran kebencian dan 0,6 persen dari konten kekerasan.

Memo lain menunjukkan, tindakan terhadap ujaran kebencian tidak pernah melampaui 10 hingga 20 persen. Hal ini karena AI mengalami kesulitan memahami konteks di mana bahasa digunakan.

Namun demikian, Facebook telah memutuskan untuk lebih mengandalkan AI dan membatasi pengeluaran untuk mempekerjakan manusia agar dapat memoderasi konten pada 2019 terkait ujaran kebencian.

Secara khusus, perusahaan mempersulit untuk melaporkan dan mengajukan banding atas keputusan tentang ujaran kebencian.

Punya Peran di Kerusuhan 6 Januari 2021 di Capitol Building

Facebook (LOIC VENANCE / AFP)

Masih dalam dokumen yang dibocorkan oleh Haugen, Facebook juga kedapatan kesulitan untuk menahan gelombang ujaran kebencian dan disinformasi di platformnya jelang kerusuhan 6 Januari 2021 di Washington.

Memo menunjukkan, perusahaan mematikan perlindungan darurat tertentu setelah pemilihan umum November 2020, dan kelabakan mengaktifkannya kembali saat kekerasan meningkat.

Satu penyelidikan internal menemukan, pelaksanaan tindakan yang cepat terhambat karena harus menunggu persetujuan dari tim kebijakan Facebook.

Pada Oktober 2020, Facebook secara terbuka mengumumkan akan berhenti merekomendasikan “kelompok masyarakat”, yang membahas masalah sosial dan politik.

Namun, karena masalah teknis dalam menerapkan perubahan, 3 juta pengguna AS masih direkomendasikan setidaknya satu dari 700.000 kelompok sipil yang diidentifikasi setiap hari antara pertengahan Oktober 2020 dan pertengahan Januari 2021.

(Ysl/Tin)

Lanjutkan Membaca ↓
Loading

POPULER

Berita Terkini Selengkapnya