Inilah DeepSeek, AI Asal China Penantang Berat ChatGPT, Ini Perbandingannya

Editor: Amirullah
AA

Text Sizes

Medium

Large

Larger

Ilustrasi DeepSeek - DeepSeek dari China jadi penantang ChatGPT

Pemanfaatan Nvidia H800

Untuk melatih model-model ini, DeepSeek menggunakan 2.048 unit Nvidia H800 GPU, yang memiliki spesifikasi lebih rendah dibandingkan H100 yang sering digunakan perusahaan AI di AS.  

Pelatihan memakan waktu sekitar 2.788 juta jam GPU, dengan biaya total sekitar 5.58 dollar juta AS. Efisiensi ini jauh melampaui model seperti GPT-4o, yang dilatih menggunakan ribuan chip H100 dan investasi puluhan miliar dolar.

Pembatasan ekspor chip oleh AS memaksa Tiongkok menggunakan chip seperti H800 yang memiliki performa lebih rendah. Namun, keterbatasan ini justru mendorong inovasi, seperti penggunaan teknik distillation.  

Dengan teknik ini, model AI dilatih untuk fokus pada tugas-tugas spesifik, sehingga lebih efisien dalam hal konsumsi sumber daya, tanpa mengorbankan performa pada tugas tertentu.

Perbandingan biaya dengan model AI AS

Biaya pengembangan DeepSeek menunjukkan efisiensi luar biasa:

  • DeepSeek-R1: Dilatih dalam waktu sekitar dua bulan dengan biaya sekitar 6 juta dollar AS atau sekitar Rp 97 milliar.  
  • GPT-4: Dilatih dengan biaya hingga 63 juta dollar AS atau sekitar Rp 1 triliun, menggunakan infrastruktur GPU yang jauh lebih mahal dan sumber daya lebih besar.

Meski menggunakan chip H800 yang lebih murah dan performanya dipangkas dibandingkan H100, DeepSeek berhasil mencapai kinerja yang sebanding atau lebih baik pada beberapa tolok ukur.  

Ini menunjukkan bahwa efisiensi arsitektur dan teknik pelatihan dapat menjadi keunggulan kompetitif yang signifikan.

DeepSeek mengklaim kinerja yang unggul dibanding model-model AI terkenal lainnya pada sejumlah tolok ukur (benchmarks):

  • DROP (3-shot F1): DeepSeek-V3 mencetak 91,6 poin, mengungguli Llama 3.1 (88,7), Claude 3.5 (88,3), dan GPT-4o (83,7).
  • MATH-500: DeepSeek-V3 mencetak 90,2 poin, lebih tinggi dari Claude 3.5 (78,3) dan GPT-4o (74,6).
  • AIME 2024: DeepSeek-V3 mencapai skor 39,2, jauh di atas Llama 3.1 (23,3) dan GPT-4o (9,3).

DeepSeek juga mengklaim bahwa DeepSeek-R1 mampu menyaingi dan bahkan melampaui OpenAI O1 di beberapa benchmark, termasuk dalam tes pemahaman konteks dan pemecahan masalah matematika.

Selengkapnya, berikut ini KompasTekno merangkum tabel perbandingan DeepSeek dan model AI dari Amerika Serikat. 

Tabel perbandingan DeepSeek dan Model AI 

Aspek DeepSeek Model AI AS (OpenAI, GPT-4)
Teknologi Utama
  • Mixture-of-Experts (MoE) untuk efisiensi parameter aktif 
  • Chain-of-Thought (CoT) untuk pemecahan masalah logis
  • Model padat (dense models)
  • Penekanan pada pelatihan dengan dataset besar dan parameter penuh
Parameter Model 671 miliar (37 miliar aktif per token) Hingga 175 miliar parameter (semua aktif)
Chip yang Digunakan Nvidia H800 Nvidia H100
Jumlah Chip GPU 2.048 unit Ribuan hingga puluhan ribu unit
Biaya Pelatihan
  • 5.58 juta dollar AS untuk DeepSeek-V3
  • 6 juta dollar AS untuk DeepSeek-R1
Hingga 63 juta dollar AS untuk GPT-4
Durasi Pelatihan 2 Bulan Beberapa bulan hingga satu tahun
Benchmark Performansi
  • DROP (3-shot F1): 91.6  
  • MATH-500: 90.2  
  • AIME 2024: 39.2
  • DROP (3-shot F1): 83,7 (GPT-4o)  
  • MATH-500: 74,6 (GPT-4o)
Fokus pengembangan Efisiensi biaya dan performa dalam tugas spesifik General-purpose AI untuk berbagai tugas
Ketersediaan Open-source di Hugging Face dengan lisensi MIT Closed-source (kebanyakan model AS seperti GPT-4)
Efisiensi Energi Lebih hemat energi dengan pendekatan MoE Konsumsi energi tinggi karena semua parameter aktif
Keterbatasan
  • Terbatas pada chip H800  
  • Tidak menjawab isu sensitif (tercensor)
  • Biaya tinggi  
  • Ketergantungan besar pada infrastruktur GPU

 

Artikel ini telah tayang di Kompas.com dengan judul "Apa Itu DeepSeek, Penantang ChatGPT dari China?"

Berita Terkini