
Bergabunglah dengan acara yang dipercaya oleh para pemimpin perusahaan selama hampir dua dekade. VB Transform menyatukan orang -orang yang membangun strategi AI perusahaan nyata. Pelajari lebih lanjut
Minimax startup AI Cina, mungkin terkenal di Barat karena model video AI realistisnya Hailuo, telah merilis model bahasa besar terbarunya, Minimax-M1-dan dalam berita bagus untuk perusahaan dan pengembang, itu sepenuhnya open source di bawah lisensi APACHE 2.0, yang berarti bisnis dapat mengambilnya dan menggunakannya untuk aplikasi komersial dan memodifikasinya menjadi lisensi atau pembayarannya tanpa pembayaran.
M1 adalah penawaran bobot terbuka yang menetapkan standar baru dalam penalaran konteks panjang, penggunaan alat agen, dan kinerja komputasi yang efisien. Ini tersedia hari ini di komunitas berbagi kode AI memeluk Face dan Microsoft's Code Sharing Community Github, rilis pertama dari apa yang dijuluki perusahaan sebagai “minimaxweek” dari akun sosialnya di X – dengan pengumuman produk lebih lanjut diharapkan.
Minimax-M1 membedakan dirinya dengan jendela konteks 1 juta token input dan hingga 80.000 token dalam output, memposisikannya sebagai salah satu model paling luas yang tersedia untuk tugas penalaran konteks lama.
“Jendela konteks” dalam model bahasa besar (LLM) mengacu pada jumlah maksimum token yang dapat diproses oleh model pada satu waktu – termasuk input dan output. Token adalah unit dasar teks, yang dapat mencakup seluruh kata, bagian kata, tanda baca, atau simbol kode. Token ini dikonversi menjadi vektor numerik yang digunakan model untuk mewakili dan memanipulasi makna melalui parameternya (bobot dan bias). Pada dasarnya, mereka adalah bahasa asli LLM.
Sebagai perbandingan, Openai's GPT-4O memiliki jendela konteks hanya 128.000 token-cukup untuk bertukar informasi novel antara pengguna dan model dalam satu interaksi bolak-balik. Dengan 1 juta token, Minimax-M1 bisa bertukar kecil koleksi atau informasi seri Book Series. Google Gemini 2.5 Pro juga menawarkan batas atas Konteks Token sebesar 1 juta, dengan 2 juta jendela yang dilaporkan dalam karya.
Tetapi M1 memiliki trik lain di lengan bajunya: itu telah dilatih menggunakan pembelajaran penguatan dalam teknik yang inovatif, banyak akal, dan sangat efisien. Model ini dilatih menggunakan arsitektur campuran hybrid-of-experts (MOE) dengan mekanisme perhatian kilat yang dirancang untuk mengurangi biaya inferensi.
Menurut laporan teknis, Minimax-M1 hanya mengkonsumsi 25% dari operasi titik mengambang (kegagalan) yang diperlukan oleh Deepseek R1 pada panjang generasi 100.000 token.
Arsitektur dan varian
Model ini hadir dalam dua varian-Minimax-M1-40K dan Minimax-M1-80K-merujuk pada “anggaran berpikir” atau panjang output mereka.
Arsitektur ini dibangun di atas yayasan Minimax-Text-01 sebelumnya dari perusahaan dan mencakup 456 miliar parameter, dengan 45,9 miliar diaktifkan per token.
Fitur yang menonjol dari rilis ini adalah biaya pelatihan model. Minimax melaporkan bahwa model M1 dilatih menggunakan pembelajaran penguatan skala besar (RL) pada efisiensi yang jarang terlihat di domain ini, dengan total biaya $ 534.700.
Efisiensi ini dikreditkan ke algoritma RL kustom yang disebut Cispo, yang mengklip bobot pengambilan sampel penting daripada pembaruan token, dan untuk desain perhatian hibrida yang membantu merampingkan penskalaan.
Itu adalah jumlah “murah” yang luar biasa untuk LLM perbatasan, karena Deepseek melatih model penalaran R1 hit dengan biaya yang dilaporkan $ 5- $ 6 juta, sementara biaya pelatihan OpenAis 'GPT-4-model yang lebih dari dua tahun sekarang-dikatakan melebihi $ 100 juta. Biaya ini berasal dari kedua harga unit pemrosesan grafis (GPU), perangkat keras komputasi paralel besar-besaran terutama diproduksi oleh perusahaan seperti NVIDIA, yang dapat berharga $ 20.000– $ 30.000 atau lebih per modul, dan dari energi yang diperlukan untuk menjalankan chip tersebut secara terus menerus di pusat data skala besar.
Kinerja benchmark
Minimax-M1 telah dievaluasi di serangkaian tolok ukur mapan yang menguji penalaran lanjutan, rekayasa perangkat lunak, dan kemampuan penggunaan alat.
Pada AIME 2024, tolok ukur kompetisi matematika, model M1-80K mencetak akurasi 86,0%. Ini juga memberikan kinerja yang kuat dalam tugas pengkodean dan konteks panjang, mencapai:
- 65,0% di LiveCodebench
- 56,0% di swe-bench diverifikasi
- 62,8% di Tau-Bench
- 73,4% di OpenAI MRCR (versi 4-jarum)

Hasil ini menempatkan Minimax-M1 di depan pesaing terbuka lainnya seperti Deepseek-R1 dan QWEN3-235B-A22B pada beberapa tugas kompleks.
Sementara model-model berbobot tertutup seperti Openai O3 dan Gemini 2.5 Pro masih berada di puncak beberapa tolok ukur, Minimax-M1 mempersempit kesenjangan kinerja sementara tetap dapat diakses secara bebas di bawah lisensi APACHE-2.0.
Untuk penempatan, Minimax merekomendasikan VLLM sebagai backend yang melayani, mengutip optimalisasi untuk beban kerja model besar, efisiensi memori, dan penanganan permintaan batch. Perusahaan juga menyediakan opsi penyebaran menggunakan perpustakaan Transformers.
Minimax-M1 termasuk kemampuan panggilan fungsi terstruktur dan dikemas dengan API chatbot yang menampilkan pencarian online, pembuatan video dan gambar, sintesis ucapan, dan alat kloning suara. Fitur-fitur ini bertujuan untuk mendukung perilaku agen yang lebih luas dalam aplikasi dunia nyata.
Implikasi untuk pembuat keputusan teknis dan pembeli perusahaan
Akses terbuka Minimax-M1, kemampuan konteks panjang, dan efisiensi komputasi mengatasi beberapa tantangan berulang untuk profesional teknis yang bertanggung jawab untuk mengelola sistem AI pada skala.
Untuk arahan rekayasa yang bertanggung jawab atas siklus hidup LLMS penuh-seperti mengoptimalkan kinerja model dan menyebarkan di bawah jadwal yang ketat-Minimax-M1 menawarkan profil biaya operasional yang lebih rendah sambil mendukung tugas penalaran lanjutan. Jendela konteksnya yang panjang dapat secara signifikan mengurangi upaya preprocessing untuk dokumen perusahaan atau data log yang menjangkau puluhan atau ratusan ribu token.
Bagi mereka yang mengelola saluran pipa orkestrasi AI, kemampuan untuk menyempurnakan dan menggunakan Minimax-M1 menggunakan alat yang sudah ada seperti VLLM atau Transformers mendukung integrasi yang lebih mudah ke dalam infrastruktur yang ada. Arsitektur perhatian hibrida dapat membantu menyederhanakan strategi penskalaan, dan kinerja kompetitif model pada penalaran multi-langkah dan tolok ukur rekayasa perangkat lunak menawarkan basis kapasitas tinggi untuk copilot internal atau sistem berbasis agen.
Dari perspektif platform data, tim yang bertanggung jawab untuk mempertahankan infrastruktur yang efisien dan dapat diskalakan dapat mengambil manfaat dari dukungan M1 untuk panggilan fungsi terstruktur dan kompatibilitasnya dengan pipa otomatis. Sifat open-source-nya memungkinkan tim untuk menyesuaikan kinerja dengan tumpukan mereka tanpa vendor lock-in.
Lead keamanan juga dapat menemukan nilai dalam mengevaluasi potensi M1 untuk penempatan yang aman dan di tempat dari model kapasitas tinggi yang tidak bergantung pada transmisi data sensitif ke titik akhir pihak ketiga.
Secara keseluruhan, Minimax-M1 menyajikan opsi yang fleksibel untuk organisasi yang ingin bereksperimen dengan atau meningkatkan kemampuan AI canggih sambil mengelola biaya, tetap dalam batas operasional, dan menghindari kendala kepemilikan.
Rilis ini menandakan fokus berkelanjutan Minimax pada model AI yang praktis dan dapat diskalakan. Dengan menggabungkan akses terbuka dengan arsitektur canggih dan efisiensi komputasi, Minimax-M1 dapat berfungsi sebagai model dasar bagi pengembang yang membangun aplikasi generasi berikutnya yang memerlukan pemahaman input kedalaman dan jangka panjang.
Kami akan melacak rilis Minimax lainnya sepanjang minggu. Pantau terus!