
Bergabunglah dengan buletin harian dan mingguan kami untuk pembaruan terbaru dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari lebih lanjut
Lansekap AI terus berkembang dengan cepat, dengan perkembangan terkini yang menantang paradigma mapan. Pada awal tahun 2025, Lab AI China Deepseek meluncurkan model baru yang mengirim gelombang kejut melalui industri AI dan menghasilkan penurunan 17% dalam saham Nvidia, bersama dengan saham lain terkait dengan permintaan pusat data AI. Reaksi pasar ini secara luas dilaporkan berasal dari kemampuan Deepseek yang jelas untuk memberikan model kinerja tinggi di sebagian kecil dari biaya saingan di AS, memicu diskusi tentang implikasi untuk pusat data AI.
Untuk mengontekstualisasikan gangguan Deepseek, kami pikir berguna untuk mempertimbangkan perubahan yang lebih luas dalam lanskap AI yang didorong oleh kelangkaan data pelatihan tambahan. Karena laboratorium AI utama sekarang telah melatih model mereka pada banyak data publik yang tersedia di Internet, kelangkaan data memperlambat peningkatan lebih lanjut dalam pra-pelatihan. Akibatnya, penyedia model mencari “Test-Time Compute” (TTC) di mana model penalaran (seperti serangkaian model Open AI “O”) “berpikir” sebelum menanggapi pertanyaan pada waktu inferensi, sebagai metode alternatif untuk meningkatkan kinerja model secara keseluruhan. Pemikiran saat ini adalah bahwa TTC dapat menunjukkan peningkatan penskalaan-hukum yang serupa dengan yang pernah mendorong pra-pelatihan, berpotensi memungkinkan gelombang kemajuan AI transformatif berikutnya.
Perkembangan ini menunjukkan dua pergeseran yang signifikan: pertama, laboratorium yang beroperasi pada anggaran yang lebih kecil (dilaporkan) sekarang mampu merilis model canggih. Pergeseran kedua adalah fokus pada TTC sebagai pendorong potensial berikutnya dari kemajuan AI. Di bawah ini kami membongkar kedua tren ini dan implikasi potensial untuk lanskap kompetitif dan pasar AI yang lebih luas.
Implikasi untuk industri AI
Kami percaya bahwa pergeseran menuju TTC dan peningkatan persaingan di antara model penalaran mungkin memiliki sejumlah implikasi untuk lanskap AI yang lebih luas di seluruh perangkat keras, platform cloud, model pondasi dan perangkat lunak perusahaan.
1. Perangkat keras (GPU, chip khusus dan infrastruktur komputasi)
- Dari kelompok pelatihan besar hingga lonjakan “test-time” sesuai permintaan: Dalam pandangan kami, pergeseran ke arah TTC mungkin memiliki implikasi untuk jenis sumber daya perangkat keras yang dibutuhkan perusahaan AI dan bagaimana mereka dikelola. Daripada berinvestasi dalam kelompok GPU yang semakin besar yang didedikasikan untuk melatih beban kerja, perusahaan AI malah meningkatkan investasi mereka dalam kemampuan inferensi untuk mendukung meningkatnya kebutuhan TTC. Sementara perusahaan AI kemungkinan masih akan membutuhkan sejumlah besar GPU untuk menangani beban kerja inferensi, perbedaan antara beban kerja pelatihan dan beban kerja inferensi dapat memengaruhi bagaimana chip tersebut dikonfigurasi dan digunakan. Secara khusus, karena beban kerja inferensi cenderung lebih dinamis (dan “spikey”), perencanaan kapasitas mungkin menjadi lebih kompleks daripada untuk beban kerja pelatihan yang berorientasi pada batch.
- Munculnya perangkat keras yang dioptimalkan inferensi: Kami percaya bahwa pergeseran fokus ke arah TTC cenderung meningkatkan peluang untuk perangkat keras AI alternatif yang berspesialisasi dalam komputasi waktu inferensi latensi rendah. Misalnya, kami dapat melihat lebih banyak permintaan untuk alternatif GPU seperti sirkuit terintegrasi spesifik aplikasi (ASIC) untuk inferensi. Karena akses ke TTC menjadi lebih penting daripada kapasitas pelatihan, dominasi GPU tujuan umum, yang digunakan untuk pelatihan dan inferensi, dapat menurun. Pergeseran ini dapat menguntungkan penyedia chip inferensi khusus.
2. Platform Cloud: Hyperscalers (AWS, Azure, GCP) dan Cloud Compute
- Kualitas Layanan (QoS) menjadi pembeda utama: Salah satu masalah yang mencegah adopsi AI di perusahaan, selain kekhawatiran seputar akurasi model, adalah tidak dapat diandalkannya inferensi API. Masalah yang terkait dengan inferensi API yang tidak dapat diandalkan termasuk waktu respons yang berfluktuasi, pembatasan laju dan kesulitan menangani permintaan bersamaan dan beradaptasi dengan perubahan titik akhir API. Peningkatan TTC selanjutnya dapat memperburuk masalah ini. Dalam keadaan ini, penyedia cloud yang dapat memberikan model dengan jaminan QoS yang mengatasi tantangan ini, dalam pandangan kami, memiliki keuntungan yang signifikan.
- Peningkatan pengeluaran cloud meskipun ada peningkatan efisiensi: Daripada mengurangi permintaan untuk perangkat keras AI, ada kemungkinan bahwa pendekatan yang lebih efisien untuk pelatihan dan inferensi model model bahasa besar (LLM) dapat mengikuti Jevons Paradox, pengamatan historis di mana peningkatan efisiensi mendorong konsumsi keseluruhan yang lebih tinggi. Dalam hal ini, model inferensi yang efisien dapat mendorong lebih banyak pengembang AI untuk memanfaatkan model penalaran, yang, pada gilirannya, meningkatkan permintaan untuk komputasi. Kami percaya bahwa kemajuan model baru -baru ini dapat menyebabkan peningkatan permintaan untuk komputasi AI cloud untuk inferensi model dan pelatihan model khusus yang lebih kecil.
3. Penyedia Model Yayasan (Openai, Antropik, Cohere, Deepseek, Mistral)
- Dampak pada model pra-terlatih: Jika pemain baru seperti Deepseek dapat bersaing dengan Frontier AI Labs di sebagian kecil dari biaya yang dilaporkan, model pra-terlatih berpemilik mungkin menjadi kurang dapat dipertahankan sebagai parit. Kami juga dapat mengharapkan inovasi lebih lanjut dalam TTC untuk model transformator dan, seperti yang telah ditunjukkan Deepseek, inovasi tersebut dapat berasal dari sumber di luar laboratorium AI yang lebih mapan.
4. Adopsi AI Enterprise dan SaaS (Lapisan Aplikasi)
- Masalah keamanan dan privasi: Mengingat asal -usul Deepseek di Cina, kemungkinan ada pengawasan yang berkelanjutan terhadap produk -produk perusahaan dari perspektif keamanan dan privasi. Secara khusus, penawaran API dan chatbot yang berbasis di China tidak mungkin digunakan secara luas oleh pelanggan AI perusahaan di AS, Kanada atau negara-negara barat lainnya. Banyak perusahaan dilaporkan bergerak untuk memblokir penggunaan situs web dan aplikasi Deepseek. Kami berharap bahwa model Deepseek akan menghadapi pengawasan bahkan ketika mereka di -host oleh pihak ketiga di AS dan pusat data Barat lainnya yang dapat membatasi adopsi perusahaan dari model. Para peneliti sudah menunjukkan contoh -contoh masalah keamanan seputar pemecahan penjara, bias dan pembuatan konten yang berbahaya. Mengingat perhatian konsumen, kita mungkin melihat eksperimen dan evaluasi model Deepseek di perusahaan, tetapi tidak mungkin bahwa pembeli perusahaan akan menjauh dari petahana karena kekhawatiran ini.
- Spesialisasi Vertikal mendapatkan traksi: Di masa lalu, aplikasi vertikal yang menggunakan model fondasi terutama berfokus pada pembuatan alur kerja yang dirancang untuk kebutuhan bisnis tertentu. Teknik-teknik seperti Retrieval-Augmented Generation (RAG), Model Routing, Function Calling dan Gagar telah memainkan peran penting dalam mengadaptasi model umum untuk kasus penggunaan khusus ini. Sementara strategi -strategi ini telah menyebabkan keberhasilan yang penting, ada kekhawatiran yang terus -menerus bahwa peningkatan yang signifikan terhadap model yang mendasari dapat membuat aplikasi ini sudah usang. Seperti yang diperingatkan Sam Altman, terobosan besar dalam kemampuan model dapat “menguatkan” inovasi lapisan aplikasi yang dibangun sebagai pembungkus di sekitar model yayasan.
Namun, jika kemajuan dalam komputasi waktu kereta memang dataran tinggi, ancaman perpindahan cepat berkurang. Di dunia di mana keuntungan dalam kinerja model berasal dari optimasi TTC, peluang baru dapat dibuka untuk pemain lapisan aplikasi. Inovasi dalam algoritma pasca-pelatihan khusus domain-seperti optimasi cepat terstruktur, strategi penalaran yang sadar latensi dan teknik pengambilan sampel yang efisien-dapat memberikan peningkatan kinerja yang signifikan dalam vertikal yang ditargetkan.
Peningkatan kinerja apa pun akan sangat relevan dalam konteks model yang berfokus pada penalaran seperti Openai GPT-4O dan Deepseek-R1, yang sering menunjukkan waktu respons multi-detik. Dalam aplikasi real-time, mengurangi latensi dan meningkatkan kualitas inferensi dalam domain yang diberikan dapat memberikan keunggulan kompetitif. Akibatnya, perusahaan lapisan aplikasi dengan keahlian domain dapat memainkan peran penting dalam mengoptimalkan efisiensi inferensi dan output penyempurnaan.
Deepseek menunjukkan penekanan penekanan pada jumlah pra-pelatihan yang semakin meningkat sebagai satu-satunya pendorong kualitas model. Sebaliknya, pengembangan menggarisbawahi semakin pentingnya TTC. Sementara adopsi langsung model Deepseek dalam aplikasi perangkat lunak perusahaan tetap tidak pasti karena pengawasan yang berkelanjutan, dampaknya pada mendorong perbaikan pada model lain yang ada menjadi lebih jelas.
Kami percaya bahwa kemajuan Deepseek telah mendorong laboratorium AI yang sudah mapan untuk memasukkan teknik serupa ke dalam proses teknik dan penelitian mereka, melengkapi keunggulan perangkat keras yang ada. Pengurangan yang dihasilkan dalam biaya model, seperti yang diperkirakan, tampaknya berkontribusi terhadap peningkatan penggunaan model, selaras dengan prinsip -prinsip Jevons Paradox.
Pashootan Vaezipoor adalah pemimpin teknis di Georgia.