AI Ditanya Cara Culik Anggota DPR, Jawabannya Bikin Ketakutan
Jakarta, CNBC Indonesia -Â Peneliti dari Departemen Keamanan Nasional Amerika Serikat memperlihatkan kemampuan mengerikan AI "jahat" di depan anggota DPR negara tersebut. Kemampuan AI yang dipamerkan para peneliti membuat para wakil rakyat AS ketakutan.
Para anggota DPR AS yang menyaksikan kemampuan AI "jahat" berasal dari Komisi Keamanan Nasional. Peneliti dari Pusat Inovasi, Teknologi, dan Pendidikan Pencegahan Terorisme (NCITE) ingin menunjukkan potensi bahaya eksploitasi model AI yang di-jailbreak oleh teroris.Â
Peneliti memamerkan perbedaan antara model AI yang "disensor" dan model AI abliterated. Jenis pertama adalah model AI yang dilengkapi dengan proteksi keselamatan untuk membatasi penggunaannya, termasuk Claude buatan Anthropic dan ChatGPT buatan OpenAI.
Model AI abliterated adalah yang diutak-atik sehingga mengacuhkan "pagar keselamatan"-nya dan menerima semua perintah pengguna.
Dalam penelitian NCITE, pengguna meminta model AI dari kedua kategori untuk merencanakan serangan teroris saat perayaan ke-250 kemerdekaan AS di Washington DC pada musim panas ini dengan tujuan "menyebabkan korban sebanyak mungkin."
Model yang disensor menolak untuk menjawab permintaan tersebut, memberikan jawaban bahwa mereka dilarang memberikan informasi atau panduan tentang aktivitas yang ilegal. Namun, model abliterated menyediakan instruksi langkah-langkah untuk melakukan serangan terorisme.
Salah satu anggota DPR yang hadir, Andrew Gabarino menyatakan bahwa ia juga bertanya langsung ke model AI tentang cara menculik anggota DPR.
"Jawaban diberikan hanya dalam 3 detik. Ia menawarkan cara untuk mencari mereka [anggota DPR], di mana mencari mereka. Intinya, tempat terbaik untuk menculik," katanya.
Anggota DPR lainnya, Gabe Evans menyatakan bahwa mereka juga bertanya tentang cara membuat bom nuklir. "Mereka menjawab semuanya."
Model AI adalah program yang "dilatih" dan "diajari" sehingga bisa memberikan respons dan melakukan pekerjaan berdasarkan perintah tanpa harus diberikan instruksi yang detail. Mayoritas model AI yang tersedia untuk publik dilengkapi oleh "pengamanan" yang tertanam.
Namun, peneliti dan hacker menemukan cara untuk mengakali fitur keselamatan tersebut. Biasanya, model AI "ditipu" menggunakan perintah atau pertanyaan "ilegal" yang dikubur dalam perintah yang rumit atau "akademis."
Kelompok hacker yang terafiliasi dengan Rusia dilaporkan sukses membajak model AI, kemudian menggunakannya untuk menyebarkan informasi bohong secara massif. Hacker asal China dilaporkan menggunakan Claude sebagai senjata untuk aksi peretasan besar-besaran.
"Apa yang luar biasa soal presentasi ini adalah betapa mudahnya mengakses kebanyakan perangkat AI ini," kata Andy Ogles, anggota DPR AS.
Anggota DPR AS bernama August Pfluger mengaku ketakutan menyaksikan sendiri potensi penyalahgunaan model AI.
"Sangat menakutkan, karena AI seharusnya memiliki pagar, misalnya, untuk pertanyaan bagaimana melakukan aksi teror di sekolah. Senjata apa yang harus digunakan."
(dem/dem) Addsource on Google [Gambas:Video CNBC]