300 Ribu Konten Facebook Salah Dimoderasi Tiap Hari

Karena begitu banyaknya konten yang harus dimoderasi, CEO Facebook Mark Zuckerberg pun mengakui, para moderator bahkan membuat kesalahan satu kali dari setiap 10 kasus.

oleh Agustin Setyo Wardani diperbarui 11 Jun 2020, 09:00 WIB
Diterbitkan 11 Jun 2020, 09:00 WIB
Facebok, Aplikasi Facebook.
Facebok, Aplikasi Facebook. Liputan6.com/Mochamad Wahyu Hidayat

Liputan6.com, Jakarta - Moderator konten di Facebook tiap harinya meninjau sekitar tiga juta konten yang telah ditandai atau dilaporkan oleh pengguna.

Karena begitu banyaknya konten yang harus dimoderasi, CEO Facebook Mark Zuckerberg pun mengakui, para moderator bahkan membuat kesalahan 1 kali dari setiap 10 kasus.

Itu artinya, ada sekitar 300 ribu konten yang salah dimoderasi tiap harinya. Demikian sebagaimana dikutip dari Forbes, Kamis (11/6/2020).

Menurut laporan NYU Stern, salah satu penyebabnya banyaknya kesalahan adalah perusahaan media sosial itu telah menyerahkan pekerjaan ini kepada pihak lain di luar karyawan internal Facebook secara outsourcing.

Facebook mempekerjakan sekitar 15 ribu orang moderator konten baik secara langsung maupun tidak langsung. Jika ada sekitar 3 juta unggahan untuk dimoderasi tiap harinya, rata-rata 200 konten dimoderasi oleh satu orang.

Lebih detailnya lagi, per orang harus menyelesaikan pekerjaan moderasi sebanyak 25 konten per jam sepanjang delapan jam shift kerja.

Kurang lebih, satu orang butuh waktu 150 detik untuk memutuskan apakah sebuah unggahan melanggar standar komunitas.

Bagaimana kalau yang ditelaah adalah video berdurasi 10 menit? Itu artinya, seorang moderator paling hanya memiliki beberapa detik untuk unggahan lainnya. Pekerjaan moderasi konten pun dianggap bukan pekerjaan mudah.

Moderasi Konten Kian Sulit Gara-Gara Covid-19

Facebook
(ilustrasi/guim.co.uk)

Pekerjaan moderasi konten jadi makin sulit saat pandemi Covid-19. Dengan risiko Covid-19, moderator konten harus bekerja di rumah, tanpa teknologi yang memadai, konektivitas, bahkan keamanan tak memenuhi syarat.

Oleh karenanya, sistem otomatis milik Facebook mengambil kendali penuh dan hal ini bisa mengarah pada kesalahan. Misalnya saja menghapus unggahan mengenai kabar virus corona dari sumber-sumber terkemuka seperti The Independent dan lain-lain.

Seorang pengguna yang menjalankan sejumlah halaman Facebook--salah satunya mengenai kegiatan menyusui--Sherry Loucks tak mengerti kenapa Facebook memblokir kontennya.

"Semua halaman yang saya jalankan kini diblokir oleh Facebook karena dianggap spam. Padahal saya hanya membagikan konten mendidik yang berasal dari sumber faktual," kata Loucks.

Ia pun heran karena halaman lain yang dijalankan Ben Shapiro, dengan 7 juta pengikut, justru tak pernah diblokir.

"Saya punya 16 halaman Facebook, tetapi hanya menulis secara teratur di 4 halaman," kata Loucks. Sementara, Shapiro disebut-sebut mengunggah konten yang jauh lebih banyak ketimbang dirinya.

Solusinya Moderator Konten Haruslah Karyawan Facebook

Facebook, Logo Facebook
Facebok, Logo Facebook. Liputan6.com/Mochamad Wahyu Hidayat

NYU Stern pun memberikan solusi, yakni mengakhiri kontrak outsourcing bagi tenaga moderasi Facebook. NYU Stern menyebut, seluruh tenaga moderator harusnya merupakan karyawan resmi Facebook dengan gaji yang memenuhi standar.

Jumlah moderator konten pun perlu dilipatgandakan, begitu juga dengan pengawasan yang mestinya dilakukan oleh pejabat senior Facebook.

Tidak hanya itu, Facebook juga perlu memperluas moderasi dan pengawasan konten di negara-negara yang kurang terlayani. Perusahaan juga perlu mensponsori penelitian mengenai dampak kesehatan mental akibat moderasi konten.

Facebook juga perlu memperluas pemeriksaan fakta untuk meminimalisasi penyebaran misinformasi. Di samping itu, penerapan kecerdasan buatan juga diyakini bisa mengurangi jumlah konten disinformasi.

(Tin/Why)

Lanjutkan Membaca ↓
Loading

Video Pilihan Hari Ini

Video Terkini

POPULER

Berita Terkini Selengkapnya