
Bergabunglah dengan buletin harian dan mingguan kami untuk pembaruan terbaru dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari lebih lanjut
Ketika Deepseek-R1 pertama kali muncul, ketakutan yang berlaku yang mengguncang industri adalah bahwa penalaran canggih dapat dicapai dengan lebih sedikit infrastruktur.
Ternyata, itu belum tentu terjadi. Setidaknya, menurut Together AI, kebangkitan Deepseek dan penalaran open-source memiliki efek sebaliknya: alih-alih mengurangi kebutuhan infrastruktur, itu meningkatkannya.
Peningkatan permintaan itu telah membantu memicu pertumbuhan platform dan bisnis AI bersama -sama. Hari ini perusahaan mengumumkan putaran pendanaan Seri B senilai $ 305 juta, yang dipimpin oleh General Catalyst dan Co-LED oleh Prosperity7. Bersama-sama AI pertama kali muncul pada tahun 2023 dengan tujuan untuk menyederhanakan penggunaan perusahaan model bahasa besar open-source (LLM). Perusahaan diperluas pada tahun 2024 dengan Platform Perusahaan Bersama, yang memungkinkan penyebaran AI di Virtual Private Cloud (VPC) dan lingkungan di tempat. Pada tahun 2025, Bersama AI menumbuhkan platformnya sekali lagi dengan kelompok penalaran dan kemampuan AI agen.
Perusahaan mengklaim bahwa platform penyebaran AI-nya memiliki lebih dari 450.000 pengembang terdaftar dan bahwa bisnis telah tumbuh 6x secara keseluruhan tahun-ke-tahun. Pelanggan perusahaan termasuk perusahaan serta startup AI seperti Krea Ai, Captions dan Pika Labs.
“Kami sekarang melayani model di semua modalitas: bahasa dan penalaran dan gambar dan audio dan video,” Vipul Prakash, CEO Together AI, mengatakan kepada VentureBeat.
Dampak Besar Deepseek-R1 mengalami permintaan infrastruktur AI
Deepseek-R1 sangat mengganggu ketika pertama kali memulai debutnya, karena sejumlah alasan-salah satunya adalah implikasi bahwa model penalaran sumber terbuka terdepan dapat dibangun dan digunakan dengan infrastruktur yang lebih sedikit daripada model kepemilikan.
Namun, Prakash menjelaskan, Bersama AI telah mengembangkan infrastrukturnya sebagian untuk membantu mendukung peningkatan permintaan beban kerja terkait Deepseek-R1.
“Ini model yang cukup mahal untuk menjalankan inferensi,” katanya. “Ini memiliki 671 miliar parameter dan Anda perlu mendistribusikannya melalui beberapa server. Dan karena kualitasnya lebih tinggi, umumnya ada lebih banyak permintaan di ujung atas, yang berarti Anda membutuhkan lebih banyak kapasitas. “
Selain itu, ia mencatat bahwa Deepseek-R1 umumnya memiliki permintaan berumur panjang yang dapat bertahan dua hingga tiga menit. Permintaan pengguna yang luar biasa untuk Deepseek-R1 semakin mendorong kebutuhan untuk infrastruktur lebih lanjut.
Untuk memenuhi permintaan itu, Bersama AI telah meluncurkan layanan yang disebutnya “kelompok penalaran” bahwa kapasitas khusus penyediaan, mulai dari 128 hingga 2.000 chip, untuk menjalankan model pada kinerja terbaik.
Bagaimana Bersama AI Membantu Organisasi Menggunakan Penalaran AI
Ada sejumlah area spesifik di mana bersama AI melihat penggunaan model penalaran. Ini termasuk:
- Agen pengkodean: Model penalaran membantu memecah masalah yang lebih besar menjadi langkah -langkah.
- Mengurangi halusinasi: Proses penalaran membantu memverifikasi output model, sehingga mengurangi halusinasi, yang penting untuk aplikasi di mana akurasi sangat penting.
- Meningkatkan model yang tidak masuk akal: Pelanggan menyaring dan meningkatkan kualitas model yang tidak masuk akal.
- Mengaktifkan Perbaikan Diri: Penggunaan pembelajaran penguatan dengan model penalaran memungkinkan model untuk meningkatkan diri secara rekursif tanpa mengandalkan data berlabel manusia dalam jumlah besar.
AI agen juga mendorong peningkatan permintaan untuk infrastruktur AI
Bersama -sama AI juga melihat peningkatan permintaan infrastruktur saat penggunanya merangkul AI agen.
Prakash menjelaskan bahwa alur kerja agen, di mana satu permintaan pengguna menghasilkan ribuan panggilan API untuk menyelesaikan tugas, menempatkan lebih banyak permintaan komputasi pada infrastruktur AI.
Untuk membantu mendukung beban kerja agen AI, bersama-sama AI baru-baru ini telah memperoleh CodesandBox, yang teknologinya menyediakan mesin virtual (VMS) yang ringan dan cepat untuk menjalankan kode yang sewenang-wenang dan aman di dalam cloud AI bersama, di mana model bahasa juga berada. Ini memungkinkan AI bersama untuk mengurangi latensi antara kode agen dan model yang perlu dipanggil, meningkatkan kinerja alur kerja agen.
Nvidia Blackwell sudah berdampak
Semua platform AI menghadapi peningkatan tuntutan.
Itulah salah satu alasan mengapa Nvidia terus meluncurkan silikon baru yang memberikan lebih banyak kinerja. Chip produk terbaru NVIDIA adalah GPU Blackwell, yang sekarang sedang dikerahkan di Together AI.
Prakash mengatakan chip Nvidia Blackwell harganya sekitar 25% lebih tinggi dari generasi sebelumnya, tetapi memberikan 2X kinerjanya. Platform GB 200 dengan chip Blackwell sangat cocok untuk pelatihan dan inferensi model campuran ahli (MOE), yang dilatih di berbagai server yang terhubung dengan Infiniband. Dia mencatat bahwa chip Blackwell juga diharapkan memberikan peningkatan kinerja yang lebih besar untuk inferensi model yang lebih besar, dibandingkan dengan model yang lebih kecil.
Lanskap kompetitif AI agen
Pasar platform infrastruktur AI sangat kompetitif.
Bersama -sama menghadapi persaingan dari penyedia cloud yang sudah mapan dan startup infrastruktur AI. Semua hiperscaler, termasuk Microsoft, AWS dan Google, memiliki platform AI. Ada juga kategori yang muncul dari pemain yang berfokus pada AI seperti Groq dan Samba Nova yang semuanya bertujuan untuk sepotong pasar yang menguntungkan.
Bersama AI memiliki penawaran full-stack, termasuk infrastruktur GPU dengan lapisan platform perangkat lunak di atas. Ini memungkinkan pelanggan untuk dengan mudah dibangun dengan model open-source atau mengembangkan model mereka sendiri di platform AI bersama. Perusahaan juga memiliki fokus pada penelitian yang mengembangkan optimasi dan runtimes yang dipercepat untuk inferensi dan pelatihan.
“Misalnya, kami melayani model Deepseek-R1 di 85 token per detik dan Azure menyajikannya pada 7 token per detik,” kata Prakash. “Ada kesenjangan yang cukup melebar dalam kinerja dan biaya yang dapat kami berikan kepada pelanggan kami.”