Apple Tunda Peluncuran Fitur Anti Pelecehan Anak yang Kontroversial

Apple memutuskan menunda peluncuran fitur anti pelecehan seksual anak setelah menuai pro dan kontra

oleh Giovani Dio Prasasti diperbarui 04 Sep 2021, 12:00 WIB
Diterbitkan 04 Sep 2021, 12:00 WIB
Ilustrasi Apple
Ilustrasi Apple (AP Photo/Mark Lennihan)

Liputan6.com, Jakarta - Apple mengumumkan pada hari Jumat pekan ini, mereka menunda peluncuran fitur anti pelecehan anak yang sempat menuai pro dan kontra.

Beberapa pihak menilai, fitur perlindungan dari pelecehan anak yang diumumkan Apple beberapa waktu lalu dapat mengancam privasi perangkat dan layanan.

Mengutip Channel News Asia, Sabtu (4/9/2021), Apple mengatakan mereka menerima respon dari para pelanggan, kelompok advokasi, peneliti, dan lain-lain.

"Kami telah memutuskan untuk mengambil waktu tambahan selama beberapa bulan mendatang untuk mengumpulkan masukan dan melakukan perbaikan sebelum merilis fitur keselamatan anak yang sangat penting ini."

Dikutip dari Engadget, Apple awalnya berencana meluncurkan sistem deteksi CSAM (Child Sexual Abuse Material) ini sebagai bagian dari pembaruan di sistem operasi yang akan datang, yaitu iOS 15, iPadOS 15, watchOS 8, dan macOS Monterey.

* Untuk mengetahui kebenaran informasi yang beredar, silakan WhatsApp ke nomor 0811 9787 670 hanya dengan ketik kata kunci yang diinginkan.

Fitur Kontroversial

Kantor Apple
Kantor Apple

Fitur yang direncanakan salah satunya disertakan dalam aplikasi Pesan atau Messages, di mana anak dan orangtua akan diberitahu ketika Apple mendeteksi foto eksplisit seksual yang dibagikan di aplikasi.

Gambar yang dikirimkan pada anak akan diburamkan dan disertai dengan peringatan.

Apple juga mau menyertakan informasi mengarahkan pengguna bagaimana cara melaporkan CSAM, atau mencari informasi terkait pencegahan hal itu di Siri dan aplikasi pencari mereka.

Namun, fitur iCloud Photos dianggap paling kontroversial dibanding lainnya.

Awalnya, Apple berencana menggunakan sistem pada perangkat untuk mencocokkan foto dengan database CSAM yang dikelola National Center for Missing and Exploited Children (NCMEC) AS dan organisasi lainnya.

Analisa ini dilakukan sebelum gambar diunggah ke iCloud. Jika sistem mendeteksi CSAM dan kajian dari ahli mengonfirmasi kecocokan, Apple akan menonaktifkan akun pengguna itu dan melaporkannya ke NCEMC.

Menuai Pro dan Kontra

Alasan Pelaku Pelecehan Seksual Berani Meluncurkan Aksinya di Tempat Umum
Menurut studi dan psikolog, ini alasan mengapa pelaku pelecehan berani meluncurkan aksinya di ruang publik. (FOTO: pexels/pixabay).

Apple mengatakan, pendekatan itu memberikan "manfaat privasi atas teknik yang ada karena Apple hanya mengetahui foto pengguna jika mereka memiliki koleksi CSAM yang dikenal di akun iCloud Photos mereka."

Meski didukung oleh sejumlah organisasi tentang langkah tersebut, namun beberapa merasa pemindaian tersebut bisa dipakai penegak hukum atau pemerintah untuk mendorong Apple mencari jenis gambar lain.

Dua peneliti di Princeton University yang mengatakan sedang membangun sistem serupa, menyebut teknologi itu berbahaya karena sistem mereka bisa digunakan untuk pemantauan dan sensor.

"Desainnya tidak terbatas pada kategori konten tertentu; sebuah layanan dapat dengan mudah bertukar dalam basis data pencocokan konten apa pun, dan orang yang menggunakan layanan itu tidak akan menjadi lebih bijaksana."

Di sisi lain, Andy Borrows, Head of Child Safety Online di National Society for the Prevention of Cruelty of Children menyayangkan penundaan peluncuran fitur itu.

"Apple telah mengadopsi pendekatan proporsional yang berusaha menyeimbangkan keamanan dan privasi pengguna, sudah seharusnya mereka tetap teguh pada pendirian," kata Borrows.

(Dio/Ysl)

Infografis Eksploitasi Seksual Anak

Eksploitasi Seksual Anak
Infografis eksploitasi seksual anak (Liputan6.com/Triyasni)
Lanjutkan Membaca ↓
Loading

Video Pilihan Hari Ini

Video Terkini

POPULER

Berita Terkini Selengkapnya