OpenAI Blokir Hacker yang Disponsori Negara untuk Menggunakan ChatGPT

OpenAI telah menghapus dan memblokir akun yang digunakan oleh kelompok hacker yang disponsori negara dari Iran, Korea Utara, Tiongkok, dan Rusia.

oleh Iskandar diperbarui 19 Feb 2024, 09:30 WIB
Diterbitkan 19 Feb 2024, 09:30 WIB
OpenAI
OpenAI. (Pexels)

Liputan6.com, Jakarta OpenAI telah menghapus dan memblokir akun yang digunakan oleh kelompok hacker yang disponsori negara dari Iran, Korea Utara, Tiongkok, dan Rusia--menyalahgunakan chatbot kecerdasan buatannya, ChatGPT.

Perusahaan mengambil tindakan terhadap akun tertentu yang terkait dengan kelompok peretasan yang menyalahgunakan layanan model bahasa besar (large language model/LLM) untuk tujuan jahat setelah menerima informasi penting dari tim Threat Intelligence Microsoft.

Dalam laporan terpisah, Microsoft memberikan rincian lebih lanjut tentang bagaimana dan mengapa pelaku ancaman tingkat lanjut ini menggunakan ChatGPT.

Mengutip Bleeping Computer, Senin (19/2/2024), berikut adalah daftar kelompok hacker yang telah dinonaktifkan di platform ChatGPT:

  • Forest Blizzard alias Strontium (Rusia): Memanfaatkan ChatGPT untuk melakukan penelitian terhadap teknologi satelit dan radar yang berkaitan dengan operasi militer dan untuk mengoptimalkan operasi sibernya dengan penyempurnaan skrip.
  • Emerald Sleet alias Thallium (Korea Utara): Memanfaatkan AI ChatGPT untuk meneliti Korea Utara dan menghasilkan konten spear-phishing, serta memahami kerentanan (seperti CVE-2022-30190 "Follina") dan memecahkan masalah teknologi web.
  • Crimson Sandstorm alias Curium (Iran): Terlibat dengan ChatGPT untuk bantuan rekayasa sosial, pemecahan masalah kesalahan, pengembangan .NET, dan pengembangan teknik penghindaran.
  • Charcoal Typhoon alias Chromium (China): Berinteraksi dengan ChatGPT untuk membantu pengembangan alat, pembuatan skrip, memahami alat keamanan siber, dan menghasilkan konten rekayasa sosial.
  • Salmon Typhoon alias Sodium (China): Mempekerjakan LLM untuk penyelidikan penyelidikan mengenai berbagai topik, termasuk informasi sensitif, individu terkenal, dan keamanan siber, untuk memperluas alat pengumpulan intelijen mereka dan mengevaluasi potensi teknologi baru untuk sumber informasi.

 

Hacker Pakai LLM Buat Apa?

Ilustrasi ChatGPT dari OpenAI
Ilustrasi ChatGPT dari OpenAI

Umumnya, pelaku ancaman menggunakan LLM untuk meningkatkan kemampuan strategis dan operasional mereka, termasuk pengintaian, rekayasa sosial, taktik penghindaran, dan pengumpulan informasi umum.

Tak satu pun dari kasus yang diamati melibatkan penggunaan LLM untuk mengembangkan malware secara langsung atau alat eksploitasi khusus yang lengkap.

Sebaliknya, bantuan pengkodean sebenarnya berkaitan dengan tugas-tugas tingkat rendah seperti meminta tip penghindaran, pembuatan skrip, mematikan antivirus, dan secara umum optimalisasi operasi teknis.

 

Mengembangkan Malware dengan AI

Ilustrasi Malware. Dok: technology-solved.com
Ilustrasi Malware. Dok: technology-solved.com

Pada Januari, sebuah laporan dari Pusat Keamanan Siber Nasional (NCSC) Inggris memperkirakan bahwa pada tahun 2025, operasi ancaman persisten tingkat lanjut (APT) yang canggih akan memanfaatkan alat AI secara menyeluruh, terutama dalam mengembangkan malware khusus yang dapat mengelak.

Namun tahun lalu, menurut temuan OpenAI dan Microsoft, ada peningkatan dalam segmen serangan APT seperti phishing/rekayasa sosial, namun sisanya bersifat eksplorasi.

OpenAI mengatakan akan terus memantau dan mengganggu peretas yang didukung negara menggunakan teknologi pemantauan khusus, informasi dari mitra industri, dan tim khusus yang bertugas mengidentifikasi pola penggunaan yang mencurigakan.

Infografis Kejahatan Siber (Liputan6.com/Abdillah)

Beragam Model Kejahatan Siber
Infografis Kejahatan Siber (Liputan6.com/Abdillah)
Lanjutkan Membaca ↓
Loading

Video Pilihan Hari Ini

Video Terkini

POPULER

Berita Terkini Selengkapnya