
Bergabunglah dengan buletin harian dan mingguan kami untuk pembaruan terbaru dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari lebih lanjut
Paus telah kembali.
After rocking the global AI and business community early this year with the January 20 initial release of its hit open source reasoning AI model R1, the Chinese startup DeepSeek — a spinoff of formerly only locally well-known Hong Kong quantitative analysis firm High-Flyer Capital Management — has released DeepSeek-R1-0528, a significant update that brings DeepSeek's free and open model near parity in reasoning capabilities with proprietary paid models such as OpenAI's o3 and Google Gemini 2.5 Pro
Pembaruan ini dirancang untuk memberikan kinerja yang lebih kuat pada tugas penalaran yang kompleks dalam matematika, sains, bisnis dan pemrograman, bersama dengan fitur yang ditingkatkan untuk pengembang dan peneliti.
Seperti pendahulunya, Deepseek-R1-0528 tersedia di bawah lisensi MIT yang permisif dan terbuka, mendukung penggunaan komersial dan memungkinkan pengembang untuk menyesuaikan model dengan kebutuhan mereka.
Bobot model open-source tersedia melalui komunitas pembagian kode AI wajah, dan dokumentasi terperinci disediakan untuk mereka yang digunakan secara lokal atau mengintegrasikan melalui API Deepseek.
Pengguna API Deepseek yang ada akan secara otomatis memiliki inferensi model yang diperbarui ke R1-0528 tanpa biaya tambahan. Biaya saat ini untuk API Deepseek adalah $ 0,14 per 1 juta token input selama jam reguler 8:30 sore hingga 12:30 malam (turun menjadi $ 0,035 selama jam diskon). Output untuk 1 juta token secara konsisten dihargai $ 2,19.
Bagi mereka yang ingin menjalankan model secara lokal, Deepseek telah menerbitkan instruksi terperinci tentang repositori GitHub -nya. Perusahaan juga mendorong masyarakat untuk memberikan umpan balik dan pertanyaan melalui email layanan mereka.
Pengguna individu dapat mencobanya secara gratis melalui situs web Deepseek di sini, meskipun Anda harus memberikan nomor telepon atau akses akun Google untuk masuk.
Penalaran yang ditingkatkan dan kinerja benchmark
Inti dari pembaruan adalah peningkatan signifikan dalam kemampuan model untuk menangani tugas penalaran yang menantang.
Deepseek menjelaskan dalam kartu model barunya tentang permukaan pelukan bahwa peningkatan ini berasal dari memanfaatkan peningkatan sumber daya komputasi dan menerapkan optimasi algoritmik dalam pasca-pelatihan. Pendekatan ini telah menghasilkan perbaikan penting di berbagai tolok ukur.
Dalam tes AIME 2025, misalnya, akurasi Deepseek-R1-0528 melonjak dari 70% menjadi 87,5%, menunjukkan proses penalaran yang lebih dalam yang sekarang rata-rata 23.000 token per pertanyaan dibandingkan dengan 12.000 pada versi sebelumnya.
Kinerja pengkodean juga melihat dorongan, dengan akurasi pada dataset LiveCodebench naik dari 63,5% menjadi 73,3%. Pada performa “Ujian Terakhir Kemanusiaan” yang menuntut lebih dari dua kali lipat, mencapai 17,7% dari 8,5%.
Kemajuan ini menempatkan Deepseek-R1-0528 lebih dekat dengan kinerja model-model yang sudah ada seperti O3 Openai dan Gemini 2.5 Pro, menurut evaluasi internal-kedua model tersebut memiliki batas tingkat dan/atau memerlukan langganan berbayar untuk mengakses.
UX UX Upgrade dan fitur baru
Di luar peningkatan kinerja, Deepseek-R1-0528 memperkenalkan beberapa fitur baru yang bertujuan untuk meningkatkan pengalaman pengguna.
Pembaruan menambahkan dukungan untuk output JSON dan panggilan fungsi, fitur yang seharusnya memudahkan pengembang untuk mengintegrasikan kemampuan model ke dalam aplikasi dan alur kerja mereka.
Kemampuan front-end juga telah disempurnakan, dan Deepseek mengatakan perubahan ini akan menciptakan interaksi yang lebih halus dan lebih efisien bagi pengguna.
Selain itu, tingkat halusinasi model telah berkurang, berkontribusi terhadap output yang lebih andal dan konsisten.
Salah satu pembaruan penting adalah pengenalan prompt sistem. Berbeda dengan versi sebelumnya, yang membutuhkan token khusus pada awal output untuk mengaktifkan mode “berpikir”, pembaruan ini menghapus kebutuhan itu, merampingkan penyebaran untuk pengembang.
Varian yang lebih kecil untuk mereka yang memiliki anggaran komputasi yang lebih terbatas
Bersamaan dengan rilis ini, Deepseek telah menyaring penalaran rantai-dipikirkan ke dalam varian yang lebih kecil, Deepseek-R1-0528-Qwen3-8B, yang seharusnya membantu para pembuat keputusan dan pengembang perusahaan yang tidak memiliki perangkat keras yang diperlukan untuk menjalankan penuh sepenuhnya tersebut
Versi suling ini dilaporkan mencapai kinerja canggih di antara model open-source pada tugas-tugas seperti AIME 2024, mengungguli QWEN3-8B sebesar 10% dan mencocokkan QWEN3-235B-Thinking.
Menurut Modal, menjalankan Model Bahasa Besar (LLM) 8 miliar-parameter (LLM) dalam presisi setengah (FP16) membutuhkan sekitar 16 GB memori GPU, setara dengan sekitar 2 GB per miliar parameter.
Oleh karena itu, satu GPU kelas atas dengan setidaknya 16 GB VRAM, seperti NVIDIA RTX 3090 atau 4090, cukup untuk menjalankan 8B LLM dalam presisi FP16. Untuk model kuantisasi lebih lanjut, GPU dengan 8-12 GB VRAM, seperti RTX 3060, dapat digunakan.
Deepseek percaya model suling ini akan terbukti bermanfaat untuk penelitian akademik dan aplikasi industri yang membutuhkan model skala kecil.
Pengembang AI awal dan reaksi influencer
Pembaruan telah menarik perhatian dan pujian dari pengembang dan penggemar di media sosial.
Haider alias “@slow_developer” berbagi pada X bahwa Deepseek-R1-0528 “luar biasa dalam pengkodean,” menggambarkan bagaimana itu menghasilkan kode bersih dan tes kerja untuk tantangan sistem penilaian kata, keduanya berjalan dengan sempurna pada percobaan pertama. Menurutnya, hanya O3 yang sebelumnya berhasil mencocokkan kinerja itu.
Sementara itu, Lisan Al Gaib memposting bahwa “Deepseek bertujuan untuk raja: O3 dan Gemini 2.5 Pro,” yang mencerminkan konsensus yang dibawa oleh pembaruan baru yang membawa model Deepseek lebih dekat dengan pemain terbaik ini.
Berita AI dan influencer rumor lainnya, Chubby, berkomentar bahwa “Deepseek sedang memasak!” dan menyoroti bagaimana versi baru hampir setara dengan O3 dan Gemini 2.5 Pro.
Chubby bahkan berspekulasi bahwa pembaruan R1 terakhir mungkin menunjukkan bahwa Deepseek sedang bersiap untuk melepaskan model perbatasan “R2” yang telah lama ditunggu-tunggu dan segera juga.
Melihat ke depan
Pelepasan Deepseek-R1-0528 menggarisbawahi komitmen Deepseek untuk memberikan model sumber terbuka yang berkinerja tinggi yang memprioritaskan penalaran dan kegunaan. Dengan menggabungkan keuntungan tolok ukur yang terukur dengan fitur-fitur praktis dan lisensi sumber terbuka yang permisif, Deepseek-R1-0528 diposisikan sebagai alat yang berharga bagi pengembang, peneliti, dan penggemar yang ingin memanfaatkan kemampuan model bahasa terbaru.