Gawat, ChatGPT bisa Digunakan Hacker untuk Penipuan Bank Berbasis Suara

Penipuan berbasis suara sudah menjadi masalah bernilai jutaan dolar. Munculnya teknologi deepfake dan alat text-to-speech bertenaga AI bahkan dapat memperburuk situasi.

oleh Iskandar diperbarui 04 Nov 2024, 10:46 WIB
Diterbitkan 04 Nov 2024, 10:46 WIB
ChatGPT OpenAI
ChatGPT OpenAI. (Pexels)

Liputan6.com, Jakarta - Sebuah penelitian menunjukkan antarmuka pemrograman aplikasi (Application Programming Interface/API) dari suara real-time OpenAI untuk ChatGPT-4o (chatbot LLM canggih), bisa disalahgunakan untuk melakukan penipuan finansial (misalnya pembobolan bank) dengan tingkat keberhasilan rendah hingga sedang.

ChatGPT-4o adalah model AI terbaru OpenAI yang menghadirkan penyempurnaan baru, seperti mengintegrasikan input dan output teks, suara, serta gambar.

Berkat fitur-fitur baru ini, OpenAI mengintegrasikan berbagai perlindungan untuk mendeteksi dan memblokir konten berbahaya, seperti mereplikasi suara yang tidak sah.

Mengutip Bleeping Computer, Senin (4/11/2024), penipuan berbasis suara sudah menjadi masalah bernilai jutaan dolar. Munculnya teknologi deepfake dan alat text-to-speech bertenaga AI bahkan dapat memperburuk situasi.

Seperti yang ditunjukkan oleh peneliti UIUC Richard Fang, Dylan Bowman, dan Daniel Kang dalam makalah mereka, alat teknologi baru yang saat ini tersedia tanpa batasan tidak memiliki perlindungan yang cukup untuk melindungi dari potensi penyalahgunaan oleh penjahat dunia maya (hacker) dan penipu.

Alat-alat ini dapat digunakan untuk merancang dan melakukan operasi penipuan berskala besar tanpa upaya manusia dengan menanggung biaya token untuk pembuatan suara.

Temuan Studi Mengejutkan

ChatGPT
Chat GPT dari OpenAI.

Makalah peneliti tersebut mengeksplorasi berbagai penipuan seperti transfer bank, pencurian kartu hadiah, transfer kripto, dan pencurian kredensial untuk akun media sosial atau Gmail.

Agen AI yang melakukan penipuan menggunakan alat otomatisasi ChatGPT-4o yang mendukung suara untuk menavigasi halaman, memasukkan data, serta mengelola kode autentikasi dua faktor dan instruksi khusus terkait penipuan.

Karena GPT-4o terkadang menolak untuk menangani data sensitif seperti kredensial, para peneliti menggunakan teknik jailbreaking cepat sederhana untuk melewati perlindungan ini.

Alih-alih orang sungguhan, para peneliti menunjukkan bagaimana mereka berinteraksi secara manual dengan agen AI, mensimulasikan peran korban yang mudah tertipu, menggunakan situs web seperti Bank of America untuk mengonfirmasi transaksi yang berhasil.

"Kami mengerahkan agen pada sebagian kecil penipuan umum. Kami mensimulasikan penipuan dengan berinteraksi secara manual dengan agen suara, memainkan peran korban yang mudah percaya," Kang menjelaskan dalam sebuah posting blog tentang penelitian tersebut.

"Untuk menentukan keberhasilan, kami mengonfirmasi secara manual apakah tujuan akhir tercapai pada aplikasi/situs web yang sebenarnya. Misalnya, kami menggunakan Bank of America untuk penipuan transfer bank dan mengonfirmasi bahwa uang benar-benar ditransfer. Namun, kami tidak mengukur kemampuan persuasi agen-agen ini," ia memaparkan.

 

Aksi Penipuan Berbiaya Murah

Ilustrasi ChatGPT
Ilustrasi ChatGPT, chatbot AI generatif yang mampu ciptakan malware canggih. (unsplash/Choong Deng Xiang)

Secara keseluruhan, tingkat keberhasilan berkisar antara 20-60%, dengan setiap upaya memerlukan hingga 26 tindakan peramban dan berlangsung hingga 3 menit dalam skenario yang paling rumit.

Transfer bank dan peniruan agen IRS, dengan sebagian besar kegagalan disebabkan oleh kesalahan transkripsi atau persyaratan navigasi situs yang rumit.

Namun, pencurian kredensial dari Gmail berhasil 60%, sementara transfer kripto dan pencurian kredensial dari Instagram hanya berhasil 40%.

Mengenai biaya, para peneliti mencatat untuk melakukan penipuan ini relatif murah, dengan setiap kasus yang berhasil menghabiskan biaya rata-rata USD 0,75.

Penipuan transfer bank, yang lebih rumit, menghabiskan biaya USD 2,51. Meskipun jauh lebih tinggi, ini masih sangat rendah dibandingkan dengan potensi keuntungan yang dapat diperoleh dari penipuan ini.

 

 

Tanggapan OpenAI

Ilustrasi OpenAI dan jawaban dari ChatGPT. (AP Photo/Michael Dwyer, File)
Ilustrasi OpenAI dan jawaban dari ChatGPT. (AP Photo/Michael Dwyer, File)

OpenAI menjelaskan bahwa model terbarunya, o1 (saat ini dalam pratinjau), yang mendukung penalaran tingkat lanjut, dibuat dengan pertahanan yang lebih baik terhadap penyalahgunaan.

 

"Kami terus-menerus membuat ChatGPT lebih baik dalam menghentikan upaya yang disengaja untuk mengelabuinya, tanpa kehilangan manfaat atau kreativitasnya. Model penalaran o1 terbaru kami adalah yang paling mampu dan paling aman, jauh mengungguli model sebelumnya dalam melawan upaya yang disengaja untuk menghasilkan konten yang tidak aman," klaim Juru Bicara OpenAI

OpenAI juga mencatat bahwa makalah seperti ini dari UIUC membantu mereka membuat ChatGPT lebih baik dalam menghentikan penggunaan yang berbahaya, dan mereka selalu menyelidiki bagaimana mereka dapat meningkatkan ketahanannya.

Untuk diketahui, GPT-4o telah menggabungkan sejumlah langkah untuk mencegah penyalahgunaan, termasuk membatasi pembuatan suara ke serangkaian suara yang telah disetujui sebelumnya untuk mencegah peniruan identitas.

o1-preview memperoleh skor yang jauh lebih tinggi menurut evaluasi keamanan jailbreak OpenAI, yang mengukur seberapa baik model tersebut menahan pembuatan konten yang tidak aman sebagai respons terhadap perintah yang bersifat adversarial, dengan skor 84% vs 22% untuk GPT-4o.

Ketika diuji menggunakan serangkaian evaluasi keamanan baru yang lebih menantang, skor o1-preview jauh lebih tinggi, 93% vs 71% untuk GPT-4o.

Infografis 4 Rekomendasi Chatbot AI Terbaik. (Liputan6.com/Gotri/Abdillah)

Infografis 4 Rekomendasi Chatbot AI Terbaik. (Liputan6.com/Gotri/Abdillah)
Infografis 4 Rekomendasi Chatbot AI Terbaik. (Liputan6.com/Gotri/Abdillah)
Lanjutkan Membaca ↓
Loading

POPULER

Berita Terkini Selengkapnya