
Bergabunglah dengan buletin harian dan mingguan kami untuk mendapatkan pembaruan terkini dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari Lebih Lanjut
Mistral telah memperbarui model pengkodean sumber terbuka Codestral – yang terbukti populer di kalangan pembuat kode – memperluas persaingan untuk model yang berfokus pada pengkodean yang ditargetkan untuk pengembang.
Dalam sebuah posting blog, perusahaan mengatakan telah meningkatkan model dengan arsitektur yang lebih efisien untuk membuat Codestral 25.01, model yang dijanjikan Mistral akan menjadi “pemimpin yang jelas untuk pengkodean di kelas bobotnya” dan dua kali lebih cepat dari versi sebelumnya.
Seperti Codestral asli, Codestral 25.01 dioptimalkan untuk latensi rendah, tindakan frekuensi tinggi dan mendukung koreksi kode, pembuatan pengujian, dan tugas pengisian tengah. Perusahaan mengatakan ini dapat berguna bagi perusahaan dengan lebih banyak data dan kasus penggunaan model residensi.

Tes benchmark menunjukkan Codestral 25.01 berkinerja lebih baik dalam tes pengkodean dengan Python dan mendapat skor 86,6% dalam tes HumanEval. Ini mengalahkan versi sebelumnya dari Codestral, Instruksi Codellama 70B dan instruksi DeepSeek Coder 33B.
Versi Codestral ini akan tersedia untuk pengembang yang merupakan bagian dari mitra plugin IDE Mistral. Pengguna dapat menerapkan Codestral 25.01 secara lokal melalui asisten kode Lanjutkan. Mereka juga dapat mengakses API model melalui la Plateforme Mistral dan Google Vertex AI. Model ini tersedia dalam pratinjau di Azure AI Foundry dan akan segera tersedia di Amazon Bedrock.
Semakin banyak model pengkodean
Mistral merilis Codestral pada Mei tahun lalu sebagai model pertama yang berfokus pada kode. Model parameter 22B dapat membuat kode dalam 80 bahasa berbeda dan mengungguli model berpusat pada kode lainnya. Sejak itu, Mistral merilis Codestral-Mamba, model pembuatan kode yang dibangun di atas arsitektur Mamba yang dapat menghasilkan string kode yang lebih panjang dan menangani lebih banyak masukan.
Dan sepertinya sudah banyak peminat terhadap Codestral 25.01. Hanya beberapa jam setelah Mistral mengumumkannya, model tersebut sudah menduduki papan peringkat di Copilot Arena.

Menulis kode adalah salah satu fitur paling awal dari model dasar, bahkan untuk model yang lebih umum seperti o3 OpenAI dan Claude Anthropic. Namun, dalam satu tahun terakhir, model khusus pengkodean telah mengalami peningkatan, dan sering kali mengungguli model yang lebih besar.
Dalam setahun terakhir saja, ada beberapa model khusus pengkodean yang tersedia bagi pengembang. Alibaba merilis Qwen2.5-Coder pada bulan November. DeepSeek Coder Tiongkok menjadi model pertama yang mengalahkan GPT-4 Turbo pada bulan Juni. Microsoft juga meluncurkan GRIN-MoE, model berbasis campuran pakar (MOE) yang dapat mengkode dan memecahkan masalah matematika.
Belum ada yang memecahkan perdebatan abadi dalam memilih model tujuan umum yang mempelajari segalanya atau model terfokus yang hanya mengetahui cara membuat kode. Beberapa pengembang lebih menyukai luasnya pilihan yang mereka temukan dalam model seperti Claude, namun perkembangan model pengkodean menunjukkan tuntutan akan kekhususan. Karena Codestral dilatih dalam pengkodean data, tentu saja Codestral akan lebih baik dalam tugas pengkodean daripada menulis email.