Breaking News

Inilah DeepSeek, AI Asal China Penantang Berat ChatGPT, Ini Perbandingannya

Dengan harga yang jauh lebih murah tapi performa setara dengan OpenAI, DeepSeek membuka babak baru dalam persaingan teknologi

Editor: Amirullah
Deutsche Welle
Ilustrasi DeepSeek - DeepSeek dari China jadi penantang ChatGPT 

Hal ini memperkuat posisinya sebagai pemain utama dalam perkembangan teknologi AI modern.

Liang Wenfeng 

Kesuksesan DeepSeek tidak lepas dari sosok pendirinya, Liang Wenfeng, yang memiliki visi besar untuk membawa Tiongkok ke garis depan inovasi kecerdasan buatan global.

Ia mengarahkan perusahaannya untuk fokus pada pengembangan artificial general intelligence (AGI), sebuah konsep kecerdasan buatan yang mampu berpikir dan membuat keputusan seperti manusia. Salah satu nilai jual utama dari DeepSeek adalah efisiensi modelnya. 

DeepSeek-R1, model terbaru mereka, hanya membutuhkan biaya sekitar 6 juta dollar AS untuk pelatihan.  

Ini menjadi angka yang jauh lebih kecil dibandingkan investasi besar yang dilakukan oleh pesaing seperti OpenAI.

Dengan biaya rendah dan performa tinggi, DeepSeek telah menjadi simbol efisiensi dalam pengembangan teknologi AI.

Efisiensi ini tidak hanya berdampak pada pasar lokal, tetapi juga mulai mengguncang industri teknologi global. 

Banyak perusahaan besar, termasuk Meta dan OpenAI, mulai memperhatikan pendekatan DeepSeek untuk meningkatkan efisiensi model mereka sendiri.  

Hal ini menegaskan bahwa meskipun DeepSeek adalah pemain baru, mereka sudah membawa perubahan signifikan dalam persaingan AI global.

Model-model DeepSeek 

Dilansir dari laman Time, DeepSeek memiliki dua model unggulan, yaitu DeepSeek-V3 dan DeepSeek-R1.

Kedua model ini dirancang untuk memenuhi kebutuhan yang berbeda, menawarkan efisiensi tinggi, dan menantang dominasi model AI terkemuka seperti GPT-4o dari OpenAI.

Meski berasal dari arsitektur dasar yang sama, keduanya memiliki fokus dan keunggulan yang membedakannya. 

DeepSeek-V3, yang dirilis pada Desember 2024, adalah model berbasis Mixture-of-Experts (MoE) dengan total 671 miliar parameter.

Halaman
1234
Sumber: Kompas.com
Berita Terkait
Ikuti kami di
AA

Berita Terkini

© 2025 TRIBUNnews.com Network,a subsidiary of KG Media.
All Right Reserved