Liputan6.com, Jakarta - Salah satu pendiri OpenAI dan mantan kepala ilmuwan Ilya Sutskever mengaku telah mendirikan perusahaan kecerdasan buatan (artificial intelligence/AI) baru.
Apakah tujuannya ingin melawan ChatGPT? Perusahaan AI tersebut berfokus pada penciptaan lingkungan AI yang aman pada saat beberapa perusahaan teknologi terbesar ingin mendominasi model AI generatif.
Advertisement
Baca Juga
Mengutip Reuters, Kamis (20/6/2024), perusahaan bernama Safe Superintelligence ini merupakan perusahaan Amerika Serikat yang berkantor di Palo Alto dan Tel Aviv.
Advertisement
Melalui cuitan di X alias Twitter, Sutskever mengungkapkan bahwa dia memulai perusahaan ini untuk keselamatan dan keamanan dalam penggunaan AI.
“Fokus tunggal kami berarti tidak ada gangguan dari overhead manajemen atau siklus produk, di mana model bisnis kami menjunjung keselamatan, keamanan, dan kemajuan tanpa terisolasi dari tekanan komersial jangka pendek,” ujarnya.
Sutskever bergabung dengan mantan peneliti OpenAI Daniel Levy dan Daniel Gross, salah satu pendiri Cue dan mantan pimpinan AI di Apple sebagai salah satu pendiri perusahaan AI Safe Superintelligence.
Sutskever meninggalkan OpenAI yang didukung Microsoft pada Mei 2024 setelah memainkan peran penting dalam pemecatan dan perekrutan kembali CEO Sam Altman secara dramatis pada November 2023.
Ilya Sutskever dikeluarkan dari dewan perusahaan setelah Altman kembali menjabat sebagai CEO OpenAI.
OpenAI Tunjuk Mantan Bos Intelijen NSA jadi Direksi
Sebelumnya, OpenAI menunjuk seorang mantan pejabat tinggi cyberwarrior dan intelijen AS (National Security Agencynsa), Paul Nakasone, ke dalam dewan direksinya.
Perusahaan menyebut dia akan membantu melindungi pembuat ChatGPT dari serangan 'aktor jahat yang semakin canggih'. Demikian sebagaimana dilansir AP News, Sabtu (15/6/2024).
Pensiunan Jenderal Angkatan Darat itu adalah komandan Komando Siber AS dan direktur NSA sebelum mengundurkan diri pada awal tahun 2024.
Dia bergabung dengan dewan direksi OpenAI yang masih merekrut anggota baru setelah pergolakan di perusahaan AI asal San Francisco itu memaksa pergantian kepemimpinan dewan tahun lalu.
Anggota dewan sebelumnya tiba-tiba memecat CEO Sam Altman dan kemudian digantikan ketika dia kembali ke peran CEO-nya beberapa hari kemudian.
OpenAI mengembalikan Altman ke dewan direksi pada Maret dan mengatakan mereka memiliki “kepercayaan penuh” pada kepemimpinannya setelah kesimpulan dari penyelidikan luar terhadap kekacauan perusahaan.
Dewan OpenAI secara teknis adalah organisasi nirlaba, tetapi juga mengatur bisnisnya yang berkembang pesat.
Nakasone juga bergabung dengan komite keselamatan dan keamanan OpenAI yang baru, sebuah kelompok yang seharusnya memberikan nasihat kepada seluruh dewan mengenai “keputusan keselamatan dan keamanan yang penting” untuk proyek dan operasinya.
Kelompok keselamatan AI terdahulu sudah dibubarkan setelah beberapa pemimpinnya mengundurkan diri.
Advertisement
Eks Karyawan OpenAI Peringatkan Soal Kurangnya Sistem Keamanan AI
Beberapa mantan karyawan OpenAI menuliskan surat terbuka berisi peringatan. Dalam surat itu, para mantan karyawan menyebut, OpenAI membungkam kritik mereka yang khawatir terhadap keamanan AI alias kecerdasan buatan.
Surat terbuka tersebut ditandatangani oleh 13 mantan karyawan OpenAI. Surat ini menyatakan, tidak adanya pengawasan pemerintah yang efektif terkait keamanan AI. Dalam suratnya, mereka juga perusahaan AI agar lebih berkomitmen pada prinsip kritik terbuka.
Mengutip The Verge, Minggu (9/6/2024), inisiatif pelayangan surat terbuka itu dilatarbelakangi perusahaan AI, khususnya OpenAI, yang dinilai tak memiliki keselamatan yang memadahi.
Selain OpenAI, Google juga mendapat kritikan keras karena tetap mempertahankan penggunaan fitur AI Overview dalam Google Search, bahkan setelah orang-orang mengklaim fitur tersebut memberikan hasil yang nyeleneh.
Selain dua perusahaan itu, Microsoft juga mendapat kecaman karena Copilot Designer-nya, yang menghasilkan gambar AI berbau seksual.
Prinsip kritik yang tertulis pada surat tersebut termasuk menghindari pembuatan dan penegakan klausul yang tidak meremehkan, memfasilitasi pelaporan oleh pihak anonim yang “dapat diverifikasi” untuk melaporkan masalah.
Tak hanya itu, surat yang ditulis mantan karyawan OpenAI ini juga menginginkan agar karyawan saat ini dan mantan karyawan dapat menyampaikan kekhawatirannya mengenai AI kepada publik secara bebas, tanpa perlu merasa ketakutan jika perusahaan teknologi membalas "serangan" mereka.
Surat tersebut menyatakan bahwa meskipun mereka percaya pada potensi AI untuk memberikan manfaat bagi masyarakat, mereka juga melihat adanya risiko. Mulai dari meningkatnya kesenjangan, manipulasi dan informasi yang salah, serta kemungkinan kepunahan manusia.
Pelapor Kelemahan Keamanan AI Tak Dilindungi Penuh
Surat tersebut juga mengatakan kalau pihak pelapor yang melaporkan kekhawatiran AI tidak dilindungi secara penuh.
Padahal, Departemen Tenaga Kerja AS menyatakan bahwa pekerja yang melaporkan pelanggaran upah, diskriminasi, keselamatan, penipuan, dan penundaan waktu istirahat dilindungi oleh undang-undang perlindungan pelapor. Itu artinya,npemberi kerja tidak dapat memecat, memberhentikan, mengurangi jam kerja, atau memecat pelapor.
“Beberapa dari kita cukup takut akan adanya berbagai bentuk pembalasan, mengingat sejarah kasus-kasus serupa di seluruh industri. Kami bukan orang pertama yang menghadapi atau membicarakan masalah ini,” tulis surat itu.
Baru-baru ini, beberapa peneliti OpenAI mengundurkan diri setelah perusahaan tersebut membubarkan tim “Superalignment”. Tim ini yang berfokus pada penanganan risiko jangka panjang AI, dan kepergian salah satu pendiri OpenAI, Ilya Sutskever, yang telah memperjuangkan keselamatan di perusahaan.
Salah satu mantan peneliti, Jan Leike, mengatakan bahwa, “Budaya dan proses keselamatan tidak lagi menjadi prioritas bagi produk yang cemerlang di OpenAI."
Advertisement