Liputan6.com, Jakarta OpenAI telah menghapus dan memblokir akun yang digunakan oleh kelompok hacker yang disponsori negara dari Iran, Korea Utara, Tiongkok, dan Rusia--menyalahgunakan chatbot kecerdasan buatannya, ChatGPT.
Perusahaan mengambil tindakan terhadap akun tertentu yang terkait dengan kelompok peretasan yang menyalahgunakan layanan model bahasa besar (large language model/LLM) untuk tujuan jahat setelah menerima informasi penting dari tim Threat Intelligence Microsoft.
Baca Juga
Dalam laporan terpisah, Microsoft memberikan rincian lebih lanjut tentang bagaimana dan mengapa pelaku ancaman tingkat lanjut ini menggunakan ChatGPT.
Advertisement
Mengutip Bleeping Computer, Senin (19/2/2024), berikut adalah daftar kelompok hacker yang telah dinonaktifkan di platform ChatGPT:
- Forest Blizzard alias Strontium (Rusia): Memanfaatkan ChatGPT untuk melakukan penelitian terhadap teknologi satelit dan radar yang berkaitan dengan operasi militer dan untuk mengoptimalkan operasi sibernya dengan penyempurnaan skrip.
- Emerald Sleet alias Thallium (Korea Utara): Memanfaatkan AI ChatGPT untuk meneliti Korea Utara dan menghasilkan konten spear-phishing, serta memahami kerentanan (seperti CVE-2022-30190 "Follina") dan memecahkan masalah teknologi web.
- Crimson Sandstorm alias Curium (Iran): Terlibat dengan ChatGPT untuk bantuan rekayasa sosial, pemecahan masalah kesalahan, pengembangan .NET, dan pengembangan teknik penghindaran.
- Charcoal Typhoon alias Chromium (China): Berinteraksi dengan ChatGPT untuk membantu pengembangan alat, pembuatan skrip, memahami alat keamanan siber, dan menghasilkan konten rekayasa sosial.
- Salmon Typhoon alias Sodium (China): Mempekerjakan LLM untuk penyelidikan penyelidikan mengenai berbagai topik, termasuk informasi sensitif, individu terkenal, dan keamanan siber, untuk memperluas alat pengumpulan intelijen mereka dan mengevaluasi potensi teknologi baru untuk sumber informasi.
Â
Hacker Pakai LLM Buat Apa?
Umumnya, pelaku ancaman menggunakan LLMÂ untuk meningkatkan kemampuan strategis dan operasional mereka, termasuk pengintaian, rekayasa sosial, taktik penghindaran, dan pengumpulan informasi umum.
Tak satu pun dari kasus yang diamati melibatkan penggunaan LLM untuk mengembangkan malware secara langsung atau alat eksploitasi khusus yang lengkap.
Sebaliknya, bantuan pengkodean sebenarnya berkaitan dengan tugas-tugas tingkat rendah seperti meminta tip penghindaran, pembuatan skrip, mematikan antivirus, dan secara umum optimalisasi operasi teknis.
Â
Advertisement
Mengembangkan Malware dengan AI
Pada Januari, sebuah laporan dari Pusat Keamanan Siber Nasional (NCSC) Inggris memperkirakan bahwa pada tahun 2025, operasi ancaman persisten tingkat lanjut (APT) yang canggih akan memanfaatkan alat AI secara menyeluruh, terutama dalam mengembangkan malware khusus yang dapat mengelak.
Namun tahun lalu, menurut temuan OpenAI dan Microsoft, ada peningkatan dalam segmen serangan APT seperti phishing/rekayasa sosial, namun sisanya bersifat eksplorasi.
OpenAI mengatakan akan terus memantau dan mengganggu peretas yang didukung negara menggunakan teknologi pemantauan khusus, informasi dari mitra industri, dan tim khusus yang bertugas mengidentifikasi pola penggunaan yang mencurigakan.
Infografis Kejahatan Siber (Liputan6.com/Abdillah)
Advertisement