Inilah DeepSeek, AI Asal China Penantang Berat ChatGPT, Ini Perbandingannya
Dengan harga yang jauh lebih murah tapi performa setara dengan OpenAI, DeepSeek membuka babak baru dalam persaingan teknologi
Pemanfaatan Nvidia H800
Untuk melatih model-model ini, DeepSeek menggunakan 2.048 unit Nvidia H800 GPU, yang memiliki spesifikasi lebih rendah dibandingkan H100 yang sering digunakan perusahaan AI di AS.
Pelatihan memakan waktu sekitar 2.788 juta jam GPU, dengan biaya total sekitar 5.58 dollar juta AS. Efisiensi ini jauh melampaui model seperti GPT-4o, yang dilatih menggunakan ribuan chip H100 dan investasi puluhan miliar dolar.
Pembatasan ekspor chip oleh AS memaksa Tiongkok menggunakan chip seperti H800 yang memiliki performa lebih rendah. Namun, keterbatasan ini justru mendorong inovasi, seperti penggunaan teknik distillation.
Dengan teknik ini, model AI dilatih untuk fokus pada tugas-tugas spesifik, sehingga lebih efisien dalam hal konsumsi sumber daya, tanpa mengorbankan performa pada tugas tertentu.
Perbandingan biaya dengan model AI AS
Biaya pengembangan DeepSeek menunjukkan efisiensi luar biasa:
- DeepSeek-R1: Dilatih dalam waktu sekitar dua bulan dengan biaya sekitar 6 juta dollar AS atau sekitar Rp 97 milliar.
- GPT-4: Dilatih dengan biaya hingga 63 juta dollar AS atau sekitar Rp 1 triliun, menggunakan infrastruktur GPU yang jauh lebih mahal dan sumber daya lebih besar.
Meski menggunakan chip H800 yang lebih murah dan performanya dipangkas dibandingkan H100, DeepSeek berhasil mencapai kinerja yang sebanding atau lebih baik pada beberapa tolok ukur.
Ini menunjukkan bahwa efisiensi arsitektur dan teknik pelatihan dapat menjadi keunggulan kompetitif yang signifikan.
DeepSeek mengklaim kinerja yang unggul dibanding model-model AI terkenal lainnya pada sejumlah tolok ukur (benchmarks):
- DROP (3-shot F1): DeepSeek-V3 mencetak 91,6 poin, mengungguli Llama 3.1 (88,7), Claude 3.5 (88,3), dan GPT-4o (83,7).
- MATH-500: DeepSeek-V3 mencetak 90,2 poin, lebih tinggi dari Claude 3.5 (78,3) dan GPT-4o (74,6).
- AIME 2024: DeepSeek-V3 mencapai skor 39,2, jauh di atas Llama 3.1 (23,3) dan GPT-4o (9,3).
DeepSeek juga mengklaim bahwa DeepSeek-R1 mampu menyaingi dan bahkan melampaui OpenAI O1 di beberapa benchmark, termasuk dalam tes pemahaman konteks dan pemecahan masalah matematika.
Selengkapnya, berikut ini KompasTekno merangkum tabel perbandingan DeepSeek dan model AI dari Amerika Serikat.
Tabel perbandingan DeepSeek dan Model AI
Aspek | DeepSeek | Model AI AS (OpenAI, GPT-4) |
Teknologi Utama |
|
|
Parameter Model | 671 miliar (37 miliar aktif per token) | Hingga 175 miliar parameter (semua aktif) |
Chip yang Digunakan | Nvidia H800 | Nvidia H100 |
Jumlah Chip GPU | 2.048 unit | Ribuan hingga puluhan ribu unit |
Biaya Pelatihan |
|
Hingga 63 juta dollar AS untuk GPT-4 |
Durasi Pelatihan | 2 Bulan | Beberapa bulan hingga satu tahun |
Benchmark Performansi |
|
|
Fokus pengembangan | Efisiensi biaya dan performa dalam tugas spesifik | General-purpose AI untuk berbagai tugas |
Ketersediaan | Open-source di Hugging Face dengan lisensi MIT | Closed-source (kebanyakan model AS seperti GPT-4) |
Efisiensi Energi | Lebih hemat energi dengan pendekatan MoE | Konsumsi energi tinggi karena semua parameter aktif |
Keterbatasan |
|
|
Artikel ini telah tayang di Kompas.com dengan judul "Apa Itu DeepSeek, Penantang ChatGPT dari China?"
Aplikasi Draiv Region Meulaboh Diluncurkan, Wabup: Bikin Bangga Aceh Barat |
![]() |
---|
Jaksa Tuntut Penipu Rumah Bantuan 3 Tahun Penjara, Ini Hal Memberatkan Terdakwa |
![]() |
---|
Digelar Lusa, Muswil PKS Aceh Akan Kukuhkan Pengurus Baru Periode 2025-2030 |
![]() |
---|
Meriahkan HUT Ke-80 RI, Puluhan Bikers Gelar Konvoi Merdeka Keliling Kota |
![]() |
---|
8 Santri MUDI Samalanga Berjaya di MQK IV Aceh, Mubasysyir Juara Ushul Fiqh |
![]() |
---|
Isi komentar sepenuhnya adalah tanggung jawab pengguna dan diatur dalam UU ITE.