Liputan6.com, Jakarta Apple mengeluarkan beberapa fitur baru untuk melindungi anak-anak dari predator pelecehan seksual yang menggunakan perangkat komunikasi untuk merekrut dan mengeksploitasi mereka.
Perusahaan teknologi asal Amerika Serikat (AS) itu menyebut, hal ini demi membatasi penyebaran materi pelecehan seksual anak (Child Sexual Abuse Material/CSAM).
Baca Juga
"Program ini ambisius, dan melindungi anak adalah tanggung jawab penting. Upaya ini akan berevolusi dan berkembang seiring berjalannya waktu," tulis Apple.
Advertisement
Dalam laman resminya, dikutip Jumat (6/8/2021), ada tiga area dengan fitur baru tentang keselamatan anak. Menurut mereka, fitur itu dikembangkan bekerja sama dengan pakar keselamatan anak.
Pihak Apple mengungkapkan bahwa fitur-fitur tersebut akan hadir di tahun ini dalam pembaruan untuk iOS 15, iPadOS 15, watchOS 8, dan macOS Monterey.
Meski begitu, beberapa fitur untuk perangkat Apple ini tampaknya belum akan dirilis secara global dan masih terbatas bagi pengguna di AS.
* Untuk mengetahui kebenaran informasi yang beredar, silakan WhatsApp ke nomor 0811 9787 670 hanya dengan ketik kata kunci yang diinginkan.
Aplikasi Pesan
Aplikasi pesan akan ditambahkan fitur baru untuk memperingatkan anak-anak atau orangtua mereka, saat menerima atau mengirim foto seksual vulgar.
Saat menerima konten jenis ini, foto akan diburamkan dan anak akan diperingatkan, diberikan sumber daya yang bermanfaat, dan diyakinkan bahwa tidak apa-apa jika mereka tidak ingin melihat foto ini.
"Sebagai tindakan pencegahan tambahan, anak juga dapat diberi tahu bahwa, untuk memastikan mereka aman, orang tua mereka akan mendapatkan pesan jika mereka melihatnya," tulis Apple.
Hal serupa juga akan muncul jika anak mencoba mengirimkan foto seksual yang eksplisit. Mereka akan mendapat peringatan dan orangtua bisa menerima pesan jika anak memilih mengirimnya.
Advertisement
Deteksi CSAM
CSAM mengacu pada konten yang menggambarkan aktivitas seksual eksplisit yang melibatkan seorang anak.
Untuk itu, Apple memasang teknologi yang memungkinkan mereka mendeteksi gambar CSAM yang diketahui dan disimpan di iCloud Photos. Ini memungkinkan Apple melaporkan kejadian tersebut ke National Center for Missing and Exploited Children (NCMEC).
Apple mengatakan metode mereka untuk mendeteksi CSAM dirancang dengan mempertimbangkan privasi pengguna. Mereka juga menggunakan gambar dari database yang disediakan NCMECE dan organisasi keamanan anak lainnya.
Selain itu, mereka juga menetapkan ambang batas yang sangat tinggi sehingga mencegah salah menandai akun. Ketika batas terlewati, teknologi kriptografi memungkinkan Apple untuk menafsirkan isi voucher keamanan yang terkait dengan gambar CSAM yang cocok.
Mereka lalu secara manual meninjau laporan untuk mengonfirmasi apabila ada kecocokan, menonaktifkan akun pengguna, lalu mengirimkan laporan ke NCMEC. Apabila pengguna merasa akunnya salah ditandai, dia dapat mengajukan banding untuk pemulihan.
Perluasan Panduan Siri dan Search
Apple juga memperluas panduan di Siri dan Search dengan sumber daya tambahan untuk membantu anak dan orangtua tetap aman selama di internet, serta mendapatkan bantuan saat situasi tidak aman.
"Misalnya, pengguna yang bertanya kepada Siri bagaimana mereka dapat melaporkan CSAM atau eksploitasi anak akan diarahkan ke sumber daya untuk tempat dan cara mengajukan laporan," kata mereka.
(Dio/Isk)
Advertisement