Petaka Baru Ancam Manusia, Peneliti Stanford Ungkap Fakta Ngeri

Novina Putri Bestari, CNBC Indonesia
Senin, 30/03/2026 13:45 WIB
Foto: Ilustrasi artificial Intelegence (AI). (REUTERS/Dado Ruvic/Illustration/File Photo)

Jakarta, CNBC Indonesia - Kehadiran chatbot mengubah perilaku manusia sehari-hari. Salah satunya kebanyakan orang yang curhat ke platform AI, dan dari sanalah petaka baru muncul.

Ini bukan semata-mata soal chatbot menggantikan manusia, melainkan cara chatbot memberikan solusi pada mereka yang bercerita urusan personal.


Penelitian yang dilakukan ilmuwan komputer Stanford University menemukan model bahasa AI cenderung memihak pada pengguna. Mereka tidak disalahkan atas apapun yang dipilihkan, namun menyetujui dan menjilat.

Bahayanya, platform chatbot juga kerap menguatkan pilihan pengguna saat ada gambaran perilaku berbahaya atau ilegal. Fenomena ini dikhawatirkan membuat manusia akan kehilangan kemampuan menghadapi situasi sosial yang sulit.

"Secara default, nasihat AI tidak memberitahu orang bahwa mereka salah atau memberikan teguran keras," kata penulis utama, Myra Cheng, dikutip dari laman resmi Stanford, Senin (30/3/2026).

Cheng dan timnya melakukan penelitian dengan menganalisa 11 model bahasa besar. Ini termasuk ChatGPT, Claude, Gemini dan DeepSeek.

Para peneliti bertanya dengan kumpulan data nasihat interpersonal yang sudah ada sebelumnya, termasuk 2.000 pertanyaan dari komunitas Reddit r/AmITheAsshole di mana pengunggah memang melakukan kesalahan menurut pengguna.

Pada pertanyaan ketiga, mereka menanyakan ribuan tindakan berbahaya misalnya penipuan dan perbuatan ilegal. Semua AI yang dilakukan analisa menguatkan dan mendukung posisi pengguna.

Penelitian ini juga merekrut lebih dari 2.400 peserta untuk melihat respon menjilat charbot. Beberapa orang berdiksusi soal masalah pribadinya yang ditulis berdasarkan unggahan komunitas Reddit dan sejumlah orang lainnya mengingat konflik yang dimiliki sendiri.

Hasilnya, peserta percaya dengan respon menjilat AI dan kembali bertanya dengan pertanyaan serupa. Mereka juga makin yakin dengan apa yang dilakukannya dan menjadi pribadi yang tidak ingin berdamai dengan pihak lain.

"Yang tidak mereka sadari dan mengejutkan kami, sikap menjilat tersebut membuat mereka lebih egois, dogmatis secara moral," jelas penulis senior, Dan Jurafsky.

Salah satu kemungkinan pengguna tak menyadari sikap buruk AI ini karena AI jarang menulis pengguna melakukan tindakan benar. Namun penyampaiannya dengan bahasa yang netral dan akademis.

Para peneliti berupaya mencari cara mengurangi kecenderungan ini. Untuk sekarang yang diharapkan pengguna bisa berhati-hati saat mencari nasihat dari AI.

"Saya pikir Anda tidak boleh menggunakan AI sebagai pengganti manusia untuk hal seperti ini. Ini cara terbaik dilakukan sekarang," pungkas Cheng.


(fab/fab) Add as a preferred
source on Google
Saksikan video di bawah ini:

Masif Adopsi AI & Cloud di Perusahaan, Waspada Risiko Keamanan Data