
Bergabunglah dengan buletin harian dan mingguan kami untuk pembaruan terbaru dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari lebih lanjut
E-commerce China dan raksasa web Tim Qwen Alibaba telah secara resmi meluncurkan serangkaian baru model multimodal bahasa open source AI yang dikenal sebagai Qwen3 yang tampaknya menjadi salah satu dari model yang canggih untuk model terbuka, dan pendekatan kinerja model kepemilikan dari orang-orang seperti Openai dan Google.
Seri QWEN3 menampilkan dua model “campuran-ekspert” dan enam model padat untuk total delapan (!) Model baru. Pendekatan “campuran-ekspert” melibatkan memiliki beberapa jenis model khusus yang berbeda digabungkan menjadi satu, dengan hanya model yang relevan dengan tugas yang diaktifkan ketika diperlukan dalam pengaturan internal model (dikenal sebagai parameter). Itu dipopulerkan oleh Open Source French AI Startup Mistral.
Menurut tim, versi parameter 235 miliar dari QWEN3 dengan nama kode A22B mengungguli R1 open source Deepseek dan Openai's Proprietary O1 pada tolok ukur pihak ketiga utama termasuk ArenaHard (dengan 500 pertanyaan pengguna dalam rekayasa perangkat lunak dan matematika) dan hampir kinerja yang baru, proprietary Google Gemini 2.5-Pro-pro. Google Gemini 2.5-Pro-Pro.
Secara keseluruhan, data Benchmark memposisikan QWEN3-235B-A22B sebagai salah satu model yang paling kuat yang tersedia untuk umum, mencapai paritas atau superioritas relatif terhadap penawaran industri utama.
Teori hibrida (penalaran)
Model QWEN3 dilatih untuk memberikan apa yang disebut kemampuan “penalaran hibrida” atau “penalaran dinamis”, yang memungkinkan pengguna untuk beralih antara tanggapan yang cepat, akurat dan lebih banyak langkah penalaran yang memakan waktu dan komputasi intensif (mirip dengan seri “O” Openai) untuk pertanyaan yang lebih sulit dalam sains, matematika, rekayasa dan bidang khusus lainnya. Ini adalah pendekatan yang dipelopori oleh Nous Research dan startup AI lainnya dan kolektif penelitian.
Dengan QWEN3, pengguna dapat menggunakan “mode berpikir” yang lebih intensif menggunakan tombol yang ditandai seperti itu di situs web obrolan QWEN atau dengan menanamkan petunjuk spesifik seperti /think
atau /no_think
Saat menggunakan model secara lokal atau melalui API, memungkinkan penggunaan fleksibel tergantung pada kompleksitas tugas.
Pengguna sekarang dapat mengakses dan menggunakan model -model ini di seluruh platform seperti memeluk wajah, Modelscope, Kaggle, dan GitHub, serta berinteraksi dengan mereka secara langsung melalui antarmuka web obrolan QWEN dan aplikasi seluler. Rilis ini mencakup campuran ahli (MOE) dan model padat, semuanya tersedia di bawah lisensi sumber terbuka Apache 2.0.
Dalam penggunaan singkat saya di situs web obrolan Qwen sejauh ini, itu dapat menghasilkan citra dengan relatif cepat dan dengan kepatuhan cepat yang layak – terutama ketika memasukkan teks ke dalam gambar secara asli sambil mencocokkan gaya. Namun, itu sering mendorong saya untuk masuk dan tunduk pada pembatasan konten Tiongkok yang biasa (seperti melarang petunjuk atau tanggapan yang terkait dengan protes Tiananmen Square).

Selain penawaran MOE, QWEN3 termasuk model padat pada skala yang berbeda: QWEN3-32B, QWEN3-14B, QWEN3-8B, QWEN3-4B, QWEN3-1.7B, dan QWEN3-0.6B.
Model -model ini bervariasi dalam ukuran dan arsitektur, menawarkan opsi pengguna agar sesuai dengan kebutuhan yang beragam dan anggaran komputasi.
Model QWEN3 juga secara signifikan memperluas dukungan multibahasa, sekarang mencakup 119 bahasa dan dialek di seluruh keluarga bahasa utama. Ini memperluas aplikasi potensial model secara global, memfasilitasi penelitian dan penyebaran dalam berbagai konteks linguistik.
Pelatihan model dan arsitektur
Dalam hal pelatihan model, QWEN3 merupakan langkah besar dari pendahulunya, QWEN2.5. Dataset pretraining berukuran dua kali lipat menjadi sekitar 36 triliun token.
Sumber data termasuk perayapan web, ekstraksi dokumen seperti PDF, dan konten sintetis yang dihasilkan menggunakan model QWEN sebelumnya yang berfokus pada matematika dan pengkodean.
Pipa pelatihan terdiri dari proses pretraining tiga tahap diikuti oleh penyempurnaan pasca-pelatihan empat tahap untuk memungkinkan pemikiran hibrida dan kemampuan yang tidak berpikiran. Peningkatan pelatihan memungkinkan model basis padat QWEN3 mencocokkan atau melampaui kinerja model QWEN2.5 yang jauh lebih besar.
Opsi penyebaran serba guna. Pengguna dapat mengintegrasikan model QWEN3 menggunakan kerangka kerja seperti SGLang dan VLLM, yang keduanya menawarkan titik akhir yang kompatibel dengan openai.
Untuk penggunaan lokal, opsi seperti Ollama, LMStudio, MLX, Llama.cpp, dan Ktransformers direkomendasikan. Selain itu, pengguna yang tertarik pada kemampuan agen model didorong untuk menjelajahi toolkit qwen-agent, yang menyederhanakan operasi panggilan alat.
Junyang Lin, anggota tim QWEN, mengomentari X bahwa membangun Qwen3 yang terlibat mengatasi tantangan teknis yang kritis tetapi tidak glamor seperti penskalaan pembelajaran penguatan secara stabil, menyeimbangkan data multi-domain, dan memperluas kinerja multibahasa tanpa pengorbanan berkualitas.
Lin juga mengindikasikan bahwa tim sedang transisi fokus ke agen pelatihan yang mampu melakukan penalaran jarak jauh untuk tugas-tugas dunia nyata.
Apa artinya bagi pembuat keputusan perusahaan
Tim teknik dapat menunjukkan titik akhir yang kompatibel dengan openai yang ada ke model baru dalam beberapa jam, bukan minggu. Pos pemeriksaan MOE (parameter 235 B dengan 22 B aktif, dan 30 b dengan 3 B aktif) memberikan penalaran kelas GPT-4 pada kira-kira biaya memori GPU dari model padat 20-30 B.
Kait resmi Lora dan Qlora mengizinkan penyempurnaan pribadi tanpa mengirim data hak milik ke vendor pihak ketiga.
Varian padat dari 0,6 B hingga 32 B memudahkan prototipe pada laptop dan skala ke cluster multi-GPU tanpa meminta kembali petunjuk.
Menjalankan bobot di tempat berarti semua petunjuk dan output dapat dicatat dan diperiksa. MOE Sparsity mengurangi jumlah parameter aktif per panggilan, memotong permukaan serangan inferensi.
Lisensi APACHE-2.0 menghilangkan rintangan hukum berbasis penggunaan, meskipun organisasi masih harus meninjau kontrol ekspor dan tata kelola dari penggunaan model yang dilatih oleh vendor yang berbasis di China.
Namun pada saat yang sama, ia juga menawarkan alternatif yang layak untuk pemain Cina lainnya termasuk Deepseek, Tencent, dan Bytedance – serta banyaknya model Amerika Utara seperti Openai, Google, Microsoft, Antropik, Amazon, Meta, dan lainnya yang disebutkan di atas. Lisensi APACHE 2.0 permisif – yang memungkinkan penggunaan komersial tanpa batas – juga merupakan keuntungan besar dibandingkan pemain open source lainnya seperti Meta, yang lisensinya lebih ketat.
Ini menunjukkan lebih jauh bahwa perlombaan antara penyedia AI untuk menawarkan model yang semakin kuat dan dapat diakses terus tetap sangat kompetitif, dan organisasi cerdas yang ingin memotong biaya harus berusaha untuk tetap fleksibel dan terbuka untuk mengevaluasi model baru tersebut untuk agen dan alur kerja AI mereka.
Melihat ke depan
Tim Qwen memposisikan QWEN3 bukan hanya sebagai peningkatan bertahap tetapi sebagai langkah signifikan menuju tujuan masa depan dalam intelijen umum buatan (AGI) dan pengawasan buatan (ASI), AI secara signifikan lebih pintar daripada manusia.
Rencana untuk fase Qwen berikutnya termasuk penskalaan data dan ukuran model lebih lanjut, memperpanjang panjang konteks, memperluas dukungan modalitas, dan meningkatkan pembelajaran penguatan dengan mekanisme umpan balik lingkungan.
Ketika lanskap penelitian AI skala besar terus berkembang, rilis bobot terbuka Qwen3 di bawah lisensi yang dapat diakses menandai tonggak penting lainnya, menurunkan hambatan bagi para peneliti, pengembang, dan organisasi yang bertujuan untuk berinovasi dengan LLM yang canggih.