Kasus Terbaru Penyalahgunaan AI, Suara Kepala Sekolah di AS Berisi Ucapan Rasis

Kasus kriminal ini melibatkan kecerdasan buatan muncul dari sebuah sekolah menengah di Maryland, AS, di mana polisi menyatakan seorang kepala sekolah dijebak sebagai orang rasis oleh rekaman suara palsu.

oleh Najma Ramadhanya diperbarui 09 Mei 2024, 19:25 WIB
Diterbitkan 09 Mei 2024, 19:25 WIB
Ilustrasi Cyber Crime
Ilustrasi Cyber Crime (Liputan6.com/Sangaji)

Liputan6.com, Maryland - Kasus kriminal terbaru yang melibatkan artificial intelligence (AI) atau kecerdasan buatan muncul di pertengahan bulan April dari sebuah sekolah menengah di Maryland, AS. Polisi mengabarkan bahwa seorang kepala sekolah (Kepsek) dituduh sebagai orang rasis gara-gara rekaman suaranya yang ternyata palsu, demikian seperti dilansir dari ABC News, Kamis (9/5/2024).

Kasus ini merupakan alasan lain mengapa semua orang, bukan hanya politikus dan selebriti, seharusnya khawatir tentang teknologi deepfake yang semakin marak ini, ungkap para ahli.

"Setiap orang rentan terhadap serangan, dan siapa pun dapat melakukan serangan," kata Hany Farid, seorang profesor di Universitas California, Berkeley, yang fokus pada forensik digital dan disinformasi.

Ada beberapa yang perlu diketahui mengenai penggunaan terbaru kecerdasan buatan yang dapat menyebabkan kerugian.

Memanipulasi suara dan gambar yang direkam memang bukan hal baru, tetapi ketika seseorang dapat mengubah informasi dengan mudah merupakan fenomena baru, demikian pula dengan kemampuannya untuk menyebar secara cepat di media sosial.

Klip audio palsu yang menyamar sebagai suara kepala sekolah merupakan contoh dari subset AI yang dikenal sebagai generative AI, yang dapat membuat gambar, video, dan klip audio yang hiper-realistis. 

Jenis AI itu lebih murah dan mudah digunakan dalam beberapa tahun terakhir, sehingga memudahkan siapa pun yang memiliki akses internet untuk bisa menggunakannya.

"Dalam setahun terakhir, siapa pun, benar-benar siapa pun, dapat mengakses layanan daring," ungkap Farid, profesor Berkeley. "Dan baik gratis atau membayar beberapa dolar sebulan, mereka dapat mengunggah 30 detik suara seseorang."

Rekaman suara itu bisa berasal dari pesan suara, unggahan media sosial, atau rekaman sembunyi-sembunyi, ungkap Farid. Algoritma pembelajaran mesin menangkap bagaimana seseorang berbicara. Dan ucapan yang dikloning kemudian dihasilkan dari kata-kata yang diketik keyboard.

Teknologi ini hanya akan menjadi lebih kuat dan lebih mudah digunakan, termasuk untuk manipulasi video, kata Farid.

Kronologi Kasus Suara Deepfake Kepsek Maryland

Ilustrasi ruang kelas, sekolah
Ilustrasi ruang kelas, sekolah. (Photo by kyo azuma on Unsplash)

Otoritas di Baltimore County mengatakan bahwa Dazhon Darien, direktur atletik di Pikesville High, menciptakan suara palsu dari Kepala Sekolah Eric Eiswert.

Rekaman palsu tersebut berisi komentar rasis dan anti-Semit, kata polisi. File suara itu muncul dalam sebuah email di kotak masuk beberapa guru sebelum menyebar ke media sosial.

Rekaman itu muncul setelah Eiswert mengungkapkan kekhawatiran tentang kinerja kerja Darien dan dugaan penyalahgunaan dana sekolah, lapor polisi.

Kasus rekaman palsu ini akhirnya membuat Eiswert memutuskan cuti, sementara polisi menjaga rumahnya, kata otoritas. Panggilan telepon marah 'membanjiri' sekolah, sementara pesan berisi kebencian menumpuk di media sosial.

Detektif meminta ahli luar untuk menganalisis rekaman tersebut. Salah satu ahli mengatakan bahwa rekaman itu "mengandung jejak konten yang dihasilkan oleh AI dengan suntingan hasil manusia setelahnya," catatan pengadilan menyatakan.

Opini kedua dari Farid menemukan bahwa "beberapa rekaman disambungkan bersama," menurut catatan tersebut.

Farid mengatakan kepada The Associated Press bahwa masih ada pertanyaan mengenai bagaimana rekaman itu dibuat, dan ia belum mengkonfirmasi bahwa itu sepenuhnya dihasilkan oleh AI.

Tetapi mengingat kemampuan AI yang semakin berkembang, Farid mengatakan kasus Maryland tetap menjadi "petunjuk awal yang penting" mengenai perlunya mengatur teknologi dengan lebih baik.

Suara yang Paling Sering Dimanipulasikan

Ilustrasi kejahatan siber
kejahatan teknologi. (Foto: Unsplash/Kevin Ku)

Banyak kasus disinformasi yang dihasilkan oleh AI berupa audio atau rekaman suara.

Hal itu sebagian karena teknologi telah berkembang begitu cepat dan telinga manusia juga tidak selalu dapat mengidentifikasi tanda-tanda manipulasi, sementara perbedaan dalam video dan foto lebih mudah terlihat.

Beberapa orang telah mengkloning suara anak-anak yang diduga diculik melalui telepon untuk mendapatkan uang tebusan dari orang tua, kata para ahli. Ada juga yang berpura-pura menjadi eksekutif utama dari sebuah perusahaan yang mendesak membutuhkan dana.

Selama pemilihan awal New Hampshire tahun ini, panggilan otomatis yang dihasilkan oleh AI meniru suara Presiden Joe Biden dan mencoba meyakinkan pemilih Demokrat untuk tidak memilih. Para ahli memperingatkan tentang lonjakan disinformasi yang dihasilkan oleh AI yang menargetkan pemilihan AS tahun ini.

Tetapi tren yang mengganggu tidak hanya terbatas pada audio, namun ada juga seperti program-program yang membuat foto telanjang palsu dari orang-orang tanpa izin, termasuk anak-anak, demikian para ahli memperingatkan.

Penyanyi Taylor Swift pun baru-baru ini menjadi sasaran.

Beberapa Upaya agar Kejahatan Menggunakan AI Berkurang

Ilustrasi kejahatan siber
Kejahatan digital. (Foto: Unsplash/Towfiqu barbhuiya)

Sebagian besar penyedia teknologi pembuat suara AI mengatakan mereka melarang penggunaan yang merugikan dari alat mereka. Namun, beberapa penegakannya bervariasi.

Beberapa vendor mengharuskan jenis tanda suara tertentu, atau mereka meminta pengguna mengucapkan serangkaian kalimat unik sebelum suara dapat dikloning.

Perusahaan teknologi besar seperti Meta dari Facebook dan OpenAI pembuat ChatGPT, hanya mengizinkzan sekelompok kecil pengguna terpercaya untuk bereksperimen dengan teknologi tersebut karena risiko penyalahgunaan.

Farid mengatakan perlu dilakukan lebih banyak hal lagi, misalnya, semua perusahaan harus mengharuskan pengguna untuk mengirimkan nomor telepon dan kartu kredit agar mereka dapat melacak file yang disalahgunakan teknologinya.

Ide lain adalah mensyaratkan agar rekaman dan gambar membawa watermark digital.

"Anda memodifikasi audio dengan cara yang tidak terdeteksi oleh sistem pendengaran manusia, tetapi dengan cara yang dapat diidentifikasi oleh perangkat lunak di bawahnya," kata Farid.

Alexander Reeve Givens, CEO dari Center for Democracy & Technology, mengatakan intervensi yang paling efektif adalah tindakan penegakan hukum terhadap penggunaan kriminal AI.

"Hal tersebut bisa rumit untuk menambahkan tanggung jawab hukum karena dalam begitu banyak kasus, mungkin ada penggunaan teknologi yang positif atau memperkuat," kata Givens, mengutip program penerjemahan dan pembacaan buku.

Tantangan lainnya adalah mencari kesepakatan internasional mengenai etika dan pedoman, kata Christian Mattmann, direktur dari kelompok Information Retrieval & Data Science di University of Southern California.

"Orang menggunakan AI secara berbeda tergantung pada negara tempat mereka berada," kata Mattmann. "Dan bukan hanya pemerintah, tetapi orang-orang. Jadi budaya memiliki peran di sini."

Beragam Model Kejahatan Siber
Infografis Kejahatan Siber (Liputan6.com/Abdillah)
Lanjutkan Membaca ↓
Loading

POPULER

Berita Terkini Selengkapnya