Karyawan Microsoft Bongkar Bobrok Perusahaan

Redaksi, CNBC Indonesia
08 March 2024 21:10
FILE PHOTO: The Microsoft logo is pictured at a service centre in New Delhi, India, April 5, 2018.  REUTERS/Saumya Khandelwal/File Photo
Foto: REUTERS/Saumya Khandelwal

Jakarta, CNBC Indonesia - Seorang karyawan Microsoft bernama Shane Jones membongkar kelemahan sistem kecerdasan buatan (AI) milik perusahaan.

Adapun sistem yang dimaksud adalah Copilot, tool AI Microsoft berbasis gambar yang debut pada Maret 2023 lalu.

Sejak sebulan sebelum rilis, Jones secara aktif menguji tool yang ditenagai teknologi dari OpenAI tersebut.

Mirip seperti DALL-E dari OpenAI, Copilot memungkinkan pengguna memasukkan prompt untuk menghasilkan gambar. Namun, hasilnya bisa menjadi liar dan tak terkendali.

Saat masa pengujian Copilot, Jones menemukan tool tersebut menghasilkan gambar yang bertentangan dengan prinsip-prinsip AI bertanggung jawab yang sering digaungkan Microsoft.

Copilot, menurut dia, menghasilkan gambar-gambar setan dan monster bersama dengan terminologi yang terkait dengan hak aborsi, remaja dengan senapan, gambar seksual wanita dalam lukisan kekerasan, dan penggunaan minuman keras serta narkoba untuk anak di bawah umur.

"Momen itu membuka mata saya. Kala itu untuk pertama kalinya saya merasa model ini tidak aman," kata dia kepada CNBC International, dikutip Jumat (8/3/2024).

Jones sudah bekerja selama 6 tahun di Microsoft dan saat ini mencapat manager software engineer di kantor pusat Redmond, Washington.

Ia mengaku tak terlibat dalam pengembangan Copilot dalam kapasitas profesional. Namun, sebagai salah satu tim penguji, Jones merupakan salah satu di antara beberapa karyawan dan orang luar yang diminta menguji Copilot di waktu senggang, sebelum rilis untuk publik.

Jones terganggu dengan temuannya dan mulai melaporkannya kepada pihak internal pada Desember lalu. Menurut dia, perusahaan mengetahui kelemahan tersebut, tetapi enggan membatalkan perilisan Copilot untuk publik.

Jones mengatakan Microsoft mengarahkannya untuk berkonsultasi ke OpenAI sebagai tulang punggung Copilot. Sayangnya, OpenAI tak merespons laporan dari Jones.

Akhirnya, ia secara terbuka menyurat ke komisaris OpenAI di LinkedIn. Ia meminta para petinggi OpenAI men-takedown DALL-E 3 dan melakukan investigasi lebih lanjut karena masalah keamanan.

Departemen legal Microsoft lalu meminta Jones menghapus postingan tersebut. Lalu, kala itu ia patuh.

Pada Januari, Jones lalu menyurat ke senator AS terkait masalah pada Copilot. Ia juga sempat bertemu dengan para staf Senat di Komite Perdagangan, Sains, dan Transportasi.

Dari situ, Jones lalu memperluas aksinya. Pada pekan ini, ia menyurat ke Kepala FTC Lina Khan. Ia juga menyurat ke para petinggi di Microsoft.

Ia membagikan surat tersebut kepada CNBC International.

"Selama 3 bulan terakhir, saya berulang kali meminta Microsoft untuk menghapus Copilot Designer dari penggunaan publik hingga panduan keamanan yang lebih baik diterapkan," tertulis dalam surat Jones ke Khan.

"Namun, Microsoft tak menggubris rekomendasi saya. Mereka gagal membuat perubahan dan terus-terusan menawarkan produk ini untuk semua orang, di mana saja, lewat perangkat apa pun," ia menuliskan.

Ia juga membongkar fakta bahwa para petinggi Microsoft dan OpenAI sudah mengetahui kelemahan Copilot sebelum dirilis publik.

Menanggapi hal ini, Microsoft mengatakan menghargai masukan dari para karyawan. Namun, Microsoft berdalih perusahaan sudah punya sistem internal yang bisa digunakan karyawan jika punya masukan.

"Kami mengajak karyawan untuk memanfaatkan sistem pelaporan internal yang sudah tersedia, agar kami bisa memvalidasi dan mengetes laporan mereka secara benar," kata juru bicara Microsoft.


(fab/fab)
[Gambas:Video CNBC]

Tags

Related Articles
Recommendation
Most Popular