
Bergabunglah dengan buletin harian dan mingguan kami untuk pembaruan terbaru dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari lebih lanjut
Mistral AI, startup kecerdasan buatan Eropa yang cepat naik, meluncurkan model bahasa baru hari ini yang mengklaim cocok dengan kinerja model tiga kali ukurannya sementara secara dramatis mengurangi biaya komputasi – pengembangan yang dapat membentuk kembali ekonomi penyebaran AI canggih.
Model baru, yang disebut Mistral Small 3, memiliki 24 miliar parameter dan mencapai akurasi 81% pada tolok ukur standar saat memproses 150 token per detik. Perusahaan merilisnya di bawah lisensi APACHE 2.0 permisif, yang memungkinkan bisnis untuk memodifikasi dan menggunakannya secara bebas.
“Kami percaya ini adalah model terbaik di antara semua model kurang dari 70 miliar parameter,” kata Guillaume Lample, chief science officer Mistral, dalam sebuah wawancara eksklusif dengan VentureBeat. “Kami memperkirakan bahwa pada dasarnya setara dengan Meta's Llama 3.3 70B yang dirilis beberapa bulan yang lalu, yang merupakan model tiga kali lebih besar.”
Pengumuman ini muncul di tengah pengawasan intens terhadap biaya pengembangan AI mengikuti klaim oleh startup Cina Deepseek bahwa ia melatih model kompetitif hanya dengan $ 5,6 juta – pernyataan yang menghapus hampir $ 600 miliar dari nilai pasar Nvidia minggu ini karena investor mempertanyakan investasi besar -besaran yang dilakukan oleh US Tech US Tech AS raksasa.
Bagaimana startup Prancis membangun model AI yang menyaingi teknologi besar di sebagian kecil
Pendekatan Mistral berfokus pada efisiensi daripada skala. Perusahaan mencapai keuntungan kinerjanya terutama melalui teknik pelatihan yang lebih baik daripada melemparkan lebih banyak daya komputasi pada masalah tersebut.
“Apa yang berubah pada dasarnya adalah teknik optimasi pelatihan,” kata Lample kepada VentureBeat. “Cara kami melatih modelnya sedikit berbeda, cara berbeda untuk mengoptimalkannya, memodifikasi bobot selama pembelajaran gratis.”
Model ini dilatih pada 8 triliun token, dibandingkan dengan 15 triliun untuk model yang sebanding, menurut Lample. Efisiensi ini dapat membuat kemampuan AI canggih lebih mudah diakses oleh bisnis yang peduli tentang biaya komputasi.
Khususnya, Mistral Small 3 dikembangkan tanpa pembelajaran penguatan atau data pelatihan sintetis, teknik yang biasa digunakan oleh pesaing. Lample mengatakan pendekatan “mentah” ini membantu menghindari penyematan bias yang tidak diinginkan yang mungkin sulit untuk dideteksi nanti.

Privasi dan perusahaan: Mengapa bisnis mengincar model AI yang lebih kecil untuk tugas-tugas yang sangat penting
Model ini ditargetkan pada perusahaan yang membutuhkan penyebaran di tempat untuk alasan privasi dan keandalan, termasuk jasa keuangan, perawatan kesehatan dan perusahaan manufaktur. Ini dapat berjalan pada satu GPU dan menangani 80-90% dari kasus penggunaan bisnis yang khas, menurut perusahaan.
“Banyak pelanggan kami menginginkan solusi di tempat karena mereka peduli dengan privasi dan keandalan,” kata Lample. “Mereka tidak ingin layanan kritis mengandalkan sistem yang tidak sepenuhnya mereka kendalikan.”

Juara AI Eropa menetapkan panggung untuk dominasi open source saat IPO tampak
Rilis ini datang sebagai Mistral, senilai $ 6 miliar, memposisikan dirinya sebagai juara Eropa dalam lomba AI global. Perusahaan baru -baru ini mengambil investasi dari Microsoft dan sedang mempersiapkan IPO akhirnya, menurut CEO Arthur Mensch.
Pengamat industri mengatakan fokus Mistral pada model yang lebih kecil dan lebih efisien dapat membuktikan prescient saat industri AI matang. Pendekatan ini kontras dengan perusahaan seperti Openai dan Antropik yang berfokus pada pengembangan model yang semakin besar dan mahal.
“Kami mungkin akan melihat hal yang sama yang kami lihat pada tahun 2024 tetapi mungkin bahkan lebih dari ini, yang pada dasarnya adalah banyak model sumber terbuka dengan lisensi yang sangat diizinkan,” Lample memperkirakan. “Kami percaya bahwa sangat mungkin bahwa model bersyarat ini menjadi semacam komoditas.”
Ketika persaingan meningkat dan peningkatan efisiensi muncul, strategi Mistral untuk mengoptimalkan model yang lebih kecil dapat membantu mendemokratisasi akses ke kemampuan AI canggih – berpotensi mempercepat adopsi di seluruh industri sambil mengurangi biaya infrastruktur komputasi.
Perusahaan mengatakan akan merilis model tambahan dengan kemampuan penalaran yang ditingkatkan dalam beberapa minggu mendatang, menyiapkan tes menarik apakah pendekatan yang berfokus pada efisiensi dapat terus mencocokkan kemampuan sistem yang jauh lebih besar.