
Bergabunglah dengan buletin harian dan mingguan kami untuk pembaruan terbaru dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari lebih lanjut
Cerebras Systems, startup perangkat keras AI yang terus menantang dominasi Nvidia di pasar intelijen buatan, Selasa mengumumkan perluasan yang signifikan dari jejak pusat data dan dua kemitraan perusahaan utama yang memposisikan perusahaan untuk menjadi penyedia terkemuka layanan inferensi AI berkecepatan tinggi.
Perusahaan akan menambahkan enam pusat data AI baru di seluruh Amerika Utara dan Eropa, meningkatkan kapasitas inferensi dua puluh kali lipat menjadi lebih dari 40 juta token per detik. Ekspansi termasuk fasilitas di Dallas, Minneapolis, Kota Oklahoma, Montreal, New York, dan Prancis, dengan 85% dari total kapasitas yang berlokasi di Amerika Serikat.
“Tahun ini, tujuan kami adalah untuk benar -benar memenuhi semua permintaan dan semua permintaan baru yang kami harapkan akan online sebagai hasil dari model baru seperti Llama 4 dan model Deepseek baru,” kata James Wang, direktur pemasaran produk di Cerebras, dalam sebuah wawancara dengan VentureBeat. “Ini adalah inisiatif pertumbuhan besar kami tahun ini untuk memenuhi permintaan yang hampir tak terbatas yang kami lihat di seluruh papan untuk token inferensi.”
Ekspansi pusat data mewakili taruhan ambisius perusahaan bahwa pasar untuk inferensi AI berkecepatan tinggi-proses di mana model AI terlatih menghasilkan output untuk aplikasi dunia nyata-akan tumbuh secara dramatis karena perusahaan mencari alternatif yang lebih cepat untuk solusi berbasis GPU dari NVIDIA.
Kemitraan strategis yang membawa AI berkecepatan tinggi bagi pengembang dan analis keuangan
Bersamaan dengan ekspansi infrastruktur, cerebras mengumumkan kemitraan dengan Hugging Face, platform pengembang AI yang populer, dan Alphasense, platform intelijen pasar yang banyak digunakan dalam industri jasa keuangan.
Integrasi wajah yang memeluk akan memungkinkan lima juta pengembangnya untuk mengakses inferensi serebras dengan satu klik, tanpa harus mendaftar untuk cerebras secara terpisah. Ini merupakan saluran distribusi utama untuk serebras, terutama untuk pengembang yang bekerja dengan model open-source seperti LLAMA 3.3 70B.
“Hugging Face adalah semacam github AI dan pusat semua pengembangan AI open source,” Wang menjelaskan. “Integrasinya sangat bagus dan asli. Anda baru saja muncul dalam daftar penyedia inferensi mereka. Anda cukup mencentang kotak dan kemudian Anda dapat menggunakan cerebras segera. ”
Kemitraan Alphasense mewakili kemenangan pelanggan perusahaan yang signifikan, dengan platform intelijen keuangan yang beralih dari apa yang digambarkan Wang sebagai “vendor model AI sumber tertutup” global ke cerebras. Perusahaan, yang melayani sekitar 85% dari perusahaan Fortune 100, menggunakan cerebras untuk mempercepat kemampuan pencarian bertenaga AI untuk intelijen pasar.
“Ini adalah kemenangan pelanggan yang luar biasa dan kontrak yang sangat besar bagi kami,” kata Wang. “Kami mempercepatnya dengan 10x jadi apa yang dulu memakan waktu lima detik atau lebih, pada dasarnya menjadi instan di cerebras.”

Bagaimana cerebras memenangkan perlombaan untuk kecepatan inferensi AI saat model penalaran melambat
Cerebras telah memposisikan dirinya sebagai spesialis dalam inferensi berkecepatan tinggi, mengklaim prosesor mesin skala wafer (WSE-3) dapat menjalankan model AI 10 hingga 70 kali lebih cepat daripada solusi berbasis GPU. Keuntungan kecepatan ini menjadi semakin berharga karena model AI berevolusi menuju kemampuan penalaran yang lebih kompleks.
“Jika Anda mendengarkan pernyataan Jensen, penalaran adalah hal besar berikutnya, bahkan menurut Nvidia,” kata Wang, merujuk pada CEO Nvidia Jensen Huang. “Tapi yang tidak dia katakan adalah bahwa penalaran membuat semuanya berjalan 10 kali lebih lambat karena model harus berpikir dan menghasilkan banyak monolog internal sebelum memberi Anda jawaban terakhir.”
Perlambatan ini menciptakan peluang untuk serebras, yang perangkat kerasnya khusus dirancang untuk mempercepat beban kerja AI yang lebih kompleks ini. Perusahaan telah mengamankan pelanggan profil tinggi termasuk AI kebingungan dan Mistral AI, yang menggunakan cerebras untuk memberi daya pada pencarian AI dan asisten produk mereka, masing-masing.
“Kami membantu kebingungan menjadi mesin pencari AI tercepat di dunia. Ini tidak mungkin sebaliknya, ”kata Wang. “Kami membantu Mistral mencapai prestasi yang sama. Sekarang mereka memiliki alasan bagi orang untuk berlangganan Le Chat Pro, sedangkan sebelumnya, model Anda mungkin bukan tingkat canggih yang sama dengan GPT-4. “

Ekonomi yang meyakinkan di balik tantangan cerebras untuk openai dan nvidia
Cerebras bertaruh bahwa kombinasi kecepatan dan biaya akan membuat layanan inferensi menarik bahkan bagi perusahaan yang sudah menggunakan model terkemuka seperti GPT-4.
Wang menunjukkan bahwa Meta's Llama 3.3 70B, model open-source yang telah dioptimalkan oleh Cerebras untuk perangkat kerasnya, sekarang skor yang sama pada tes intelijen seperti Openai's GPT-4, sementara harganya jauh lebih sedikit untuk dijalankan.
“Siapa pun yang menggunakan GPT-4 hari ini hanya bisa pindah ke Llama 3.3 70b sebagai pengganti drop-in,” jelasnya. “Harga untuk GPT-4 adalah [about] $ 4,40 dalam istilah campuran. Dan Llama 3.3 seperti 60 sen. Kami sekitar 60 sen, kan? Jadi Anda mengurangi biaya dengan hampir urutan besarnya. Dan jika Anda menggunakan cerebras, Anda meningkatkan kecepatan dengan urutan besarnya. ”
Di dalam pusat data tahan tornado cerebras yang dibangun untuk ketahanan AI
Perusahaan melakukan investasi besar dalam infrastruktur yang tangguh sebagai bagian dari ekspansi. Fasilitas Oklahoma City -nya, yang dijadwalkan online pada Juni 2025, dirancang untuk menahan acara cuaca ekstrem.
“Oklahoma, seperti yang Anda tahu, adalah semacam zona tornado. Jadi pusat data ini sebenarnya dinilai dan dirancang untuk sepenuhnya resisten terhadap tornado dan aktivitas seismik, ”kata Wang. “Ini akan menahan tornado terkuat yang pernah direkam dalam catatan. Jika hal itu berjalan begitu saja, benda ini hanya akan terus mengirim token llama ke pengembang. ”
Fasilitas Oklahoma City, yang dioperasikan dalam kemitraan dengan pusat data skala, akan menampung lebih dari 300 serebras CS-3 sistem dan fitur pembangkit listrik redundan tiga dan solusi pendingin air khusus yang dirancang khusus untuk sistem skala wafer cerebras.

Dari skeptisisme hingga kepemimpinan pasar: bagaimana cerebras membuktikan nilainya
Ekspansi dan kemitraan yang diumumkan hari ini merupakan tonggak penting bagi cerebras, yang telah bekerja untuk membuktikan dirinya di pasar perangkat keras AI yang didominasi oleh NVIDIA.
“Saya pikir apa yang masuk akal tentang penyerapan pelanggan, mungkin ketika kami pertama kali diluncurkan, saya pikir itu sekarang sepenuhnya ditidurkan, hanya mengingat keragaman logo yang kami miliki,” kata Wang.
Perusahaan menargetkan tiga area spesifik di mana inferensi cepat memberikan nilai terbanyak: pemrosesan suara dan video real-time, model penalaran, dan aplikasi pengkodean.
“Pengkodean adalah salah satu dari penalaran di antara ini dan tanya jawab reguler yang membutuhkan waktu 30 detik hingga satu menit untuk menghasilkan semua kode,” jelas Wang. “Kecepatan langsung sebanding dengan produktivitas pengembang. Jadi memiliki kecepatan di sana penting. “
Dengan berfokus pada inferensi berkecepatan tinggi daripada bersaing di semua beban kerja AI, cerebras telah menemukan ceruk di mana ia dapat mengklaim kepemimpinan bahkan bahkan penyedia cloud terbesar.
“Tidak ada yang umumnya bersaing melawan AWS dan Azure dalam skala mereka. Kami jelas tidak mencapai skala penuh seperti mereka, tetapi untuk dapat mereplikasi segmen utama … di bagian depan inferensi berkecepatan tinggi, kami akan memiliki kapasitas lebih dari mereka, ”kata Wang.
Mengapa Ekspansi US-Centric Cerebras penting untuk kedaulatan AI dan beban kerja di masa depan
Ekspansi datang pada saat industri AI semakin fokus pada kemampuan inferensi, karena perusahaan beralih dari bereksperimen dengan AI generatif untuk menggunakannya dalam aplikasi produksi di mana kecepatan dan efisiensi biaya sangat penting.
Dengan 85% dari kapasitas inferensi yang berlokasi di Amerika Serikat, cerebras juga memposisikan dirinya sebagai pemain kunci dalam memajukan infrastruktur AI domestik pada saat kedaulatan teknologi telah menjadi prioritas nasional.
“Cerebras sedang turbocharging masa depan kepemimpinan AI AS dengan kinerja, skala, dan efisiensi yang tak tertandingi – pusat data global baru ini akan berfungsi sebagai tulang punggung untuk gelombang inovasi AI berikutnya,” kata Dhiraj Mallick, COO dari Cerebras Systems, dalam pengumuman perusahaan.
Karena model penalaran seperti Deepseek R1 dan Openai's O3 menjadi lebih umum, permintaan untuk solusi inferensi yang lebih cepat cenderung tumbuh. Model-model ini, yang dapat memakan waktu beberapa menit untuk menghasilkan jawaban pada perangkat keras tradisional, beroperasi hampir-instan pada sistem serebras, menurut perusahaan.
Untuk pembuat keputusan teknis yang mengevaluasi opsi infrastruktur AI, ekspansi Cerebras merupakan alternatif baru yang signifikan untuk solusi berbasis GPU, terutama untuk aplikasi di mana waktu respons sangat penting untuk pengalaman pengguna.
Apakah perusahaan dapat benar-benar menantang dominasi Nvidia di pasar perangkat keras AI yang lebih luas masih harus dilihat, tetapi fokusnya pada inferensi berkecepatan tinggi dan investasi infrastruktur substansial menunjukkan strategi yang jelas untuk mengukir segmen yang berharga dari lanskap AI yang berkembang pesat.