Liputan6.com, Jakarta - Head of WhatsApp, Will Cathcart, menilai Apple telah mengambil cara yang salah terkait fitur 'Keamanan Anak' terbaru yang bertujuan untuk melindungi anak-anak dari pelecehan seksual.
Apple mengklaim fitur yang baru diumumkan pada Kamis (5/8/2021) itu demi membatasi penyebaran materi pelecehan seksual anak (Child Sexual Abuse Material/CSAM).
Baca Juga
Namun, Cathcart menilai pendekatan Apple 'sangat memprihatinkan', di mana Apple melibatkan pengambilan 'hashes of images' yang diunggah ke iCloud dan membandingkannya dengan database yang berisi gambar CSAM yang diketahui. Demikian sebagaimana diwartakan The Verge, Sabtu (8/8/2021).
Advertisement
Cara yang disebut sistem hashing ini memungkinkan Apple untuk menyimpan data pengguna terenkripsi dan menjalankan analisis di perangkat sambil tetap mengizinkan perusahaan untuk melaporkan pengguna ke pihak berwenang jika mereka ditemukan membagikan gambar pelecehan anak.
Dalam cuitannya di Twitter, Cathcart mengatakan Apple 'telah membangun perangkat lunak yang dapat memindai semua foto pribadi di ponsel pengguna'.
"Saya membaca informasi yang dikeluarkan Apple kemarin dan saya khawatir. Saya pikir ini adalah pendekatan yang salah dan kemunduran bagi privasi orang di seluruh dunia," cuitnya.
"Orang-orang bertanya apakah kami akan mengadopsi sistem ini untuk WhatsApp. Jawabannya adalah tidak," Cathcart menegaskan.
* Untuk mengetahui kebenaran informasi yang beredar, silakan WhatsApp ke nomor 0811 9787 670 hanya dengan ketik kata kunci yang diinginkan.
Tanggapan Para Ahli Teknologi
Bukan hanya WhatsApp yang mengkritik langkah-langkah 'Keamanan Anak' terbaru Apple. Beberapa ahli teknologi dan organisasi juga menyampaikan kekhawatirannya, termasuk Edward Snowden, Electronic Frontier Foundation (EFF), profesor, dan masih banyak lagi.
Matthew Green, profesor di Universitas Johns Hopkins, meminta fitur tersebut ditarik sebelum diumumkan secara publik. Dia men-tweet tentang rencana Apple dan bagaimana sistem hashing dapat disalahgunakan oleh pemerintah dan aktor jahat.
EFF bahkan merilis pernyataan yang mengecam rencana Apple. EFF menjelaskan secara rinci tentang bagaimana mereka meyakini langkah-langkah 'Keamanan Anak' Apple dapat disalahgunakan oleh pemerintah dan bagaimana mereka 'merampas' privasi pengguna.
Edward Snowden me-retweet artikel Financial Times tentang isu tersebut, memberikan karakterisasinya sendiri tentang apa yang dilakukan Apple.
"Apple berencana memodifikasi iPhone untuk terus memindai 'barang selundupan'," cuitnya sambil mengutip pernyataan profesor teknik keamanan Ross Anderson yang menilai bahwa sistem tersebur benar-benar mengerikan, karena akan mengarah pada pengawasan massal terdistribusi dari ponsel dan laptop kita.
Advertisement
Apple Ungkap 3 Fitur Baru untuk Cegah Pelecehan Seksual Anak
Apple mengeluarkan beberapa fitur baru untuk melindungi anak-anak dari predator pelecehan seksual yang menggunakan perangkat komunikasi untuk merekrut dan mengeksploitasi mereka.
Perusahaan teknologi asal Amerika Serikat (AS) itu menyebut, hal ini demi membatasi penyebaran materi pelecehan seksual anak (Child Sexual Abuse Material/CSAM).
"Program ini ambisius, dan melindungi anak adalah tanggung jawab penting. Upaya ini akan berevolusi dan berkembang seiring berjalannya waktu," tulis Apple.
Dalam laman resminya, dikutip Jumat (6/8/2021), ada tiga area dengan fitur baru tentang keselamatan anak. Menurut mereka, fitur itu dikembangkan bekerja sama dengan pakar keselamatan anak.
Pihak Apple mengungkapkan bahwa fitur-fitur tersebut akan hadir di tahun ini dalam pembaruan untuk iOS 15, iPadOS 15, watchOS 8, dan macOS Monterey.
Meski begitu, beberapa fitur untuk perangkat Apple ini tampaknya belum akan dirilis secara global dan masih terbatas bagi pengguna di AS.
Aplikasi Pesan
Aplikasi pesan akan ditambahkan fitur baru untuk memperingatkan anak-anak atau orangtua mereka, saat menerima atau mengirim foto seksual vulgar.
Saat menerima konten jenis ini, foto akan diburamkan dan anak akan diperingatkan, diberikan sumber daya yang bermanfaat, dan diyakinkan bahwa tidak apa-apa jika mereka tidak ingin melihat foto ini.
"Sebagai tindakan pencegahan tambahan, anak juga dapat diberi tahu bahwa, untuk memastikan mereka aman, orang tua mereka akan mendapatkan pesan jika mereka melihatnya," tulis Apple.
Hal serupa juga akan muncul jika anak mencoba mengirimkan foto seksual yang eksplisit. Mereka akan mendapat peringatan dan orangtua bisa menerima pesan jika anak memilih mengirimnya.
Advertisement
Deteksi CSAM
CSAM mengacu pada konten yang menggambarkan aktivitas seksual eksplisit yang melibatkan seorang anak.
Untuk itu, Apple memasang teknologi yang memungkinkan mereka mendeteksi gambar CSAM yang diketahui dan disimpan di iCloud Photos. Ini memungkinkan Apple melaporkan kejadian tersebut ke National Center for Missing and Exploited Children (NCMEC).
Apple mengatakan metode mereka untuk mendeteksi CSAM dirancang dengan mempertimbangkan privasi pengguna. Mereka juga menggunakan gambar dari database yang disediakan NCMECE dan organisasi keamanan anak lainnya.
Selain itu, mereka juga menetapkan ambang batas yang sangat tinggi sehingga mencegah salah menandai akun. Ketika batas terlewati, teknologi kriptografi memungkinkan Apple untuk menafsirkan isi voucher keamanan yang terkait dengan gambar CSAM yang cocok.
Mereka lalu secara manual meninjau laporan untuk mengonfirmasi apabila ada kecocokan, menonaktifkan akun pengguna, lalu mengirimkan laporan ke NCMEC. Apabila pengguna merasa akunnya salah ditandai, dia dapat mengajukan banding untuk pemulihan.
Perluasan Panduan Siri dan Search
Apple juga memperluas panduan di Siri dan Search dengan sumber daya tambahan untuk membantu anak dan orangtua tetap aman selama di internet, serta mendapatkan bantuan saat situasi tidak aman.
"Misalnya, pengguna yang bertanya kepada Siri bagaimana mereka dapat melaporkan CSAM atau eksploitasi anak akan diarahkan ke sumber daya untuk tempat dan cara mengajukan laporan," kata mereka.
(Isk/Tin)
Advertisement