Liputan6.com, Jakarta - OpenAI menunjuk seorang mantan pejabat tinggi cyberwarrior dan intelijen AS (National Security Agencynsa), Paul Nakasone, ke dalam dewan direksinya.
Perusahaan menyebut dia akan membantu melindungi pembuat ChatGPT dari serangan 'aktor jahat yang semakin canggih'. Demikian sebagaimana dilansir AP News, Sabtu (15/6/2024).
Baca Juga
Pensiunan Jenderal Angkatan Darat itu adalah komandan Komando Siber AS dan direktur NSA sebelum mengundurkan diri pada awal tahun 2024.
Advertisement
Dia bergabung dengan dewan direksi OpenAI yang masih merekrut anggota baru setelah pergolakan di perusahaan AI asal San Francisco itu memaksa pergantian kepemimpinan dewan tahun lalu.
Anggota dewan sebelumnya tiba-tiba memecat CEO Sam Altman dan kemudian digantikan ketika dia kembali ke peran CEO-nya beberapa hari kemudian.
OpenAI mengembalikan Altman ke dewan direksi pada Maret dan mengatakan mereka memiliki “kepercayaan penuh” pada kepemimpinannya setelah kesimpulan dari penyelidikan luar terhadap kekacauan perusahaan.
Dewan OpenAI secara teknis adalah organisasi nirlaba, tetapi juga mengatur bisnisnya yang berkembang pesat.
Nakasone juga bergabung dengan komite keselamatan dan keamanan OpenAI yang baru, sebuah kelompok yang seharusnya memberikan nasihat kepada seluruh dewan mengenai “keputusan keselamatan dan keamanan yang penting” untuk proyek dan operasinya.
Kelompok keselamatan AI terdahulu sudah dibubarkan setelah beberapa pemimpinnya mengundurkan diri.
Eks Karyawan OpenAI Peringatkan Soal Kurangnya Sistem Keamanan AI
Beberapa mantan karyawan OpenAI menuliskan surat terbuka berisi peringatan. Dalam surat itu, para mantan karyawan menyebut, OpenAI membungkam kritik mereka yang khawatir terhadap keamanan AI alias kecerdasan buatan.
Surat terbuka tersebut ditandatangani oleh 13 mantan karyawan OpenAI. Surat ini menyatakan, tidak adanya pengawasan pemerintah yang efektif terkait keamanan AI. Dalam suratnya, mereka juga perusahaan AI agar lebih berkomitmen pada prinsip kritik terbuka.
Mengutip The Verge, Minggu (9/6/2024), inisiatif pelayangan surat terbuka itu dilatarbelakangi perusahaan AI, khususnya OpenAI, yang dinilai tak memiliki keselamatan yang memadahi.
Selain OpenAI, Google juga mendapat kritikan keras karena tetap mempertahankan penggunaan fitur AI Overview dalam Google Search, bahkan setelah orang-orang mengklaim fitur tersebut memberikan hasil yang nyeleneh.
Selain dua perusahaan itu, Microsoft juga mendapat kecaman karena Copilot Designer-nya, yang menghasilkan gambar AI berbau seksual.
Prinsip kritik yang tertulis pada surat tersebut termasuk menghindari pembuatan dan penegakan klausul yang tidak meremehkan, memfasilitasi pelaporan oleh pihak anonim yang “dapat diverifikasi” untuk melaporkan masalah.
Tak hanya itu, surat yang ditulis mantan karyawan OpenAI ini juga menginginkan agar karyawan saat ini dan mantan karyawan dapat menyampaikan kekhawatirannya mengenai AI kepada publik secara bebas, tanpa perlu merasa ketakutan jika perusahaan teknologi membalas "serangan" mereka.
Surat tersebut menyatakan bahwa meskipun mereka percaya pada potensi AI untuk memberikan manfaat bagi masyarakat, mereka juga melihat adanya risiko. Mulai dari meningkatnya kesenjangan, manipulasi dan informasi yang salah, serta kemungkinan kepunahan manusia.
Advertisement
Pelapor Kelemahan Keamanan AI Tak Dilindungi Penuh
Surat tersebut juga mengatakan kalau pihak pelapor yang melaporkan kekhawatiran AI tidak dilindungi secara penuh.
Padahal, Departemen Tenaga Kerja AS menyatakan bahwa pekerja yang melaporkan pelanggaran upah, diskriminasi, keselamatan, penipuan, dan penundaan waktu istirahat dilindungi oleh undang-undang perlindungan pelapor. Itu artinya,npemberi kerja tidak dapat memecat, memberhentikan, mengurangi jam kerja, atau memecat pelapor.
“Beberapa dari kita cukup takut akan adanya berbagai bentuk pembalasan, mengingat sejarah kasus-kasus serupa di seluruh industri. Kami bukan orang pertama yang menghadapi atau membicarakan masalah ini,” tulis surat itu.
Baru-baru ini, beberapa peneliti OpenAI mengundurkan diri setelah perusahaan tersebut membubarkan tim “Superalignment”. Tim ini yang berfokus pada penanganan risiko jangka panjang AI, dan kepergian salah satu pendiri OpenAI, Ilya Sutskever, yang telah memperjuangkan keselamatan di perusahaan.
Salah satu mantan peneliti, Jan Leike, mengatakan bahwa, “Budaya dan proses keselamatan tidak lagi menjadi prioritas bagi produk yang cemerlang di OpenAI."
OpenAI Sebut Ada Perusahaan Israel Pakai AI untuk Sebar Disinformasi
Di sisi lain, OpenAI merilis laporan yang menyebutkan kalau tool kecerdasan buatan dipakai dalam operasi rahasia dari Israel, Rusia, Tiongkok, dan Iran untuk menyebar disinformasi.
Mengutip The Guardian, Kamis (6/6/2024), aktor jahat menggunakan model AI generatif dari OpenAI untuk membuat dan mengunggah konten propaganda di seluruh platform media sosial. AI generatif juga dipakai untuk menerjemahkan konten tersebut ke bahasa berbeda.
Laporan juga mengungkap, sejauh ini tak satu pun dari kampanye jahat menjangkau khalayak luas.
Namun, karena AI generatif telah menjadi industri yang booming, ada kekhawatiran luas di kalangan peneliti dan anggota parlemen kalau AI akan dipakai untuk meningkatkan kuantitas disinformasi di internet.
Pembesut ChatGPT, OpenAI, sebelumnya mencoba meredakan kekhawatiran ini dan menerapkan batasan pada teknologi mereka.
Salah satu caranya dengan laporan 39 halaman dari OpenAI, tentang penggunaan software mereka (oleh pihak tak bertanggung jawab) untuk propaganda.
OpenAI mengklaim, para peneliti mereka menemukan dan melarang akun yang terkait dengan lima operasi selama tiga bulan terakhir yang berasal dari aktor negara dan swasta.
Untuk kasus di Rusia misalnya, dua operasi membuat dan menyebarkan konten mengkritik AS, Ukraina, dan beberapa negara Baltik lainnya.
Salah satu operasi menggunakan model OpenAI untuk men-debug kode dan membuat bot yang diunggah di Telegram.
Advertisement