Pencipta ChatGPT Habis Rp1,65 Triliun, Ditiru China Modal Rp4,8 Miliar

Intan Rakhmayanti Dewi, CNBC Indonesia
Selasa, 23/09/2025 07:50 WIB
Foto: Ilustrasi logo deepseek. (AP Photo/Andy Wong)

Jakarta, CNBC Indonesia - Pengembang kecerdasan buatan (AI) asal China, DeepSeek, mengungkap hanya menghabiskan sekitar US$294.000 atau setara Rp4,8 miliar untuk melatih model terbaru mereka, R1.

Angka ini jauh lebih rendah dibandingkan biaya pelatihan model AI dari pesaing asal Amerika Serikat (AS) yang disebut mencapai ratusan juta dolar.

Pernyataan tersebut muncul dalam sebuah artikel ilmiah yang ditinjau sejawat dan diterbitkan di jurnal akademik Nature pada Rabu (17/9/2025).


Ini sekaligus menjadi pertama kalinya DeepSeek memerinci estimasi biaya pelatihan R1, sebuah model yang berfokus pada penalaran (reasoning).

Menurut laporan itu, pelatihan R1 menggunakan 512 chip Nvidia H800 dengan durasi total 80 jam.

Sebelumnya, CEO OpenAI Sam Altman pernah mengatakan pelatihan model fundamental AI menelan biaya lebuh dari dari US$100 juta, meskipun perusahaan tidak pernah memerinci angkanya.

DeepSeek sempat mengejutkan pasar global pada Januari lalu saat merilis sistem AI berbiaya rendah, yang membuat investor khawatir dominasi raksasa teknologi seperti Nvidia bisa terancam. Kondisi itu bahkan sempat memicu aksi jual saham teknologi.

Namun, setelah rilis tersebut, perusahaan dan pendirinya Liang Wenfeng jarang muncul di publik kecuali untuk meluncurkan sejumlah pembaruan produk.

Artikel Nature juga mengungkap bahwa DeepSeek menggunakan chip A100 di tahap awal persiapan sebelum akhirnya beralih ke H800.

Hal ini menarik perhatian karena AS sejak 2022 melarang ekspor chip AI canggih H100 dan A100 ke China.

Meski demikian, Nvidia menegaskan bahwa DeepSeek hanya menggunakan chip H800 yang diperoleh secara sah.

Dalam dokumen informasi tambahan yang menyertai artikel di Nature, perusahaan untuk pertama kalinya mengakui memang memiliki chip A100 dan menggunakannya pada tahap persiapan pengembangan.

"Terkait penelitian kami pada DeepSeek-R1, kami memanfaatkan GPU A100 untuk mempersiapkan eksperimen dengan model yang lebih kecil," tulis para peneliti, dikutip dari Reuters, Senin (22/9/2025).

Setelah tahap awal itu, R1 kemudian dilatih selama 80 jam menggunakan kluster 512 chip H800.


(dem/dem)
Saksikan video di bawah ini:

Video: Dunia Tercengang, Nvidia Jadi Perusahaan USD 4 Triliun Pertama