Facebook Bakal Peringatkan Pengguna Saat Berbagi Berita Lawas

Facebook kini melengkapi fitur tombol konteks dengan memberikan notifikasi saat pengguna berbagi berita lawas.

oleh Agustinus Mario Damar diperbarui 26 Jun 2020, 16:30 WIB
Diterbitkan 26 Jun 2020, 16:30 WIB
Facebook
Notifikasi baru yang ditampilkan Facebook saat pengguna membagikan berita lawas. (Doc. Facebook)

Liputan6.com, Jakarta - Facebook baru saja mengumumkan fitur baru untuk menandai berita yang dibagikan pengguna di platform-nya. Fitur anyar ini sebenarnya melengkapi tombol konteks (context button) yang diliris Facebook tersebut pada 2018.

Dikutip Facebook Newsroom, Jumat (26/6/2020), dengan fitur ini, Facebook akan memberikan notifikasi pada pengguna apabila mereka membagikan berita lawas. Dalam hal ini, berita yang usianya lebih dari 90 hari.

Menurut perusahaan, notifikasi ini akan muncul langsung setelah pengguna mengklik tombol share di akunnya. Meski ada notifikasi tersebut, bukan berarti Facebook membatasi pengguna untuk membagikannya.

"Kami hanya ingin memastikan orang mengetahui konteks mengenai sebuah berita saat ingin membagikannya di Facebook," tulis VP Feed and Stories Facebook , John Hegeman.

Kehadiran fitur ini, menurut John, berasal dari riset internal mereka. Dari riset itu, mereka menemukan ketepatan waktu adalah konteks penting yang menentukan seseorang membaca, mempercayai, dan membagikan sebuah berita.

Di sisi lain, penerbit berita juga menaruh perhatian pada berita-berita lawas yang dibagikan di media sosial dan kerap kali dikira sebagai berita baru. Hal itu jelas menimbulkan kesalahpahaman, sebab konteks waktunya tidak tepat.

Oleh sebab itu, Facebook menuturkan beberapa penerbit berita sudah melabeli berita lawas di situsnya masing-masing. Melalui cara itu, mereka dapat mencegah berita itu disalahgunakan.

"Selama beberapa bulan ke depan, kami juga akan menguji coba fungsi notifikasi ini untuk berita yang berkaitan dengan Covid-19," tutur John.

300 Ribu Konten Facebook Salah Dimoderasi Tiap Hari

Facebok, Aplikasi Facebook.
Facebok, Aplikasi Facebook. Liputan6.com/Mochamad Wahyu Hidayat

Sebagai informasi, moderator konten di Facebook tiap harinya meninjau sekitar tiga juta konten yang telah ditandai atau dilaporkan oleh pengguna.

Karena begitu banyaknya konten yang harus dimoderasi, CEO Facebook Mark Zuckerberg pun mengakui, para moderator bahkan membuat kesalahan 1 kali dari setiap 10 kasus.

Itu artinya, ada sekitar 300 ribu konten yang salah dimoderasi tiap harinya. Demikian sebagaimana dikutip dari Forbes, Kamis (11/6/2020).

Menurut laporan NYU Stern, salah satu penyebabnya banyaknya kesalahan adalah perusahaan media sosial itu telah menyerahkan pekerjaan ini kepada pihak lain di luar karyawan internal Facebook secara outsourcing.

Facebook mempekerjakan sekitar 15 ribu orang moderator konten baik secara langsung maupun tidak langsung. Jika ada sekitar 3 juta unggahan untuk dimoderasi tiap harinya, rata-rata 200 konten dimoderasi oleh satu orang.

Lebih detailnya lagi, per orang harus menyelesaikan pekerjaan moderasi sebanyak 25 konten per jam sepanjang delapan jam shift kerja.

Kurang lebih, satu orang butuh waktu 150 detik untuk memutuskan apakah sebuah unggahan melanggar standar komunitas.

Bagaimana kalau yang ditelaah adalah video berdurasi 10 menit? Itu artinya, seorang moderator paling hanya memiliki beberapa detik untuk unggahan lainnya. Pekerjaan moderasi konten pun dianggap bukan pekerjaan mudah. 

Solusinya Moderator Konten Haruslah Karyawan Facebook

Cara Mengaktifkan Dark Mode pada Facebook Messenger
Aplikasi Facebook / Sumber: iStock

NYU Stern pun memberikan solusi, yakni mengakhiri kontrak outsourcing bagi tenaga moderasi Facebook. NYU Stern menyebut, seluruh tenaga moderator harusnya merupakan karyawan resmi Facebook dengan gaji yang memenuhi standar.

Jumlah moderator konten pun perlu dilipatgandakan, begitu juga dengan pengawasan yang mestinya dilakukan oleh pejabat senior Facebook.

Tidak hanya itu, Facebook juga perlu memperluas moderasi dan pengawasan konten di negara-negara yang kurang terlayani. Perusahaan juga perlu mensponsori penelitian mengenai dampak kesehatan mental akibat moderasi konten.

Facebook juga perlu memperluas pemeriksaan fakta untuk meminimalisasi penyebaran misinformasi. Di samping itu, penerapan kecerdasan buatan juga diyakini bisa mengurangi jumlah konten disinformasi.

(Dam/Ysl)

Lanjutkan Membaca ↓
Loading

POPULER

Berita Terkini Selengkapnya