
Bergabunglah dengan buletin harian dan mingguan kami untuk pembaruan terbaru dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari lebih lanjut
Google Cloud meluncurkan Unit Pemrosesan Tensor Generasi Ketujuh (TPU) yang disebut Ironwood pada hari Rabu, akselerator AI khusus yang diklaim perusahaan memberikan lebih dari 24 kali daya komputasi dari superkomputer tercepat di dunia ketika digunakan pada skala.
Chip baru, yang diumumkan di Google Cloud Next '25, mewakili poros signifikan dalam strategi pengembangan chip AI dekade Google. Sementara generasi TPU sebelumnya dirancang terutama untuk beban kerja pelatihan dan inferensi, Ironwood adalah tujuan pertama yang dibangun khusus untuk inferensi-proses menggunakan model AI terlatih untuk membuat prediksi atau menghasilkan respons.
“Ironwood dibangun untuk mendukung fase AI generatif berikutnya dan persyaratan komputasi dan komunikasi yang luar biasa,” kata Amin Vahdat, wakil presiden Google dan manajer umum ML, Systems, dan Cloud AI, dalam konferensi pers virtual menjelang acara. “Inilah yang kami sebut 'Zaman Inferensi' di mana agen AI akan secara proaktif mengambil dan menghasilkan data untuk secara kolaboratif memberikan wawasan dan jawaban, bukan hanya data.”
Shattering Computational Hambatan: Inside Ironwood's 42.5 Exaflops of AI Muscle
Spesifikasi teknis Ironwood sangat mencolok. Ketika diskalakan ke 9.216 chip per pod, Ironwood memberikan 42,5 exaflops daya komputasi – 1,7 exaflops El Capitan, saat ini superkomputer tercepat di dunia. Setiap chip besi individu memberikan komputasi puncak 4.614 teraflops.
Ironwood juga menampilkan peningkatan memori dan bandwidth yang signifikan. Setiap chip hadir dengan 192GB High Bandwidth Memory (HBM), enam kali lebih banyak dari Trillium, TPU generasi Google sebelumnya diumumkan tahun lalu. Bandwidth memori mencapai 7,2 terabit per detik per chip, peningkatan 4,5x di atas trillium.
Mungkin yang paling penting di era pusat data yang dibatasi kekuasaan, Ironwood memberikan kinerja dua kali per watt dibandingkan dengan trillium, dan hampir 30 kali lebih hemat daya daripada TPU cloud pertama Google dari 2018.
“Pada saat daya yang tersedia adalah salah satu kendala untuk memberikan kemampuan AI, kami memberikan kapasitas yang jauh lebih banyak per watt untuk beban kerja pelanggan,” jelas Vahdat.
Dari Model Building ke 'Thinking Machines': Mengapa Fokus Inferensi Google penting sekarang
Penekanan pada inferensi daripada pelatihan merupakan titik belok yang signifikan dalam timeline AI. Selama bertahun -tahun, industri telah terpaku pada membangun model yayasan yang semakin besar, dengan perusahaan yang bersaing terutama pada ukuran parameter dan kemampuan pelatihan. Pivot Google untuk optimasi inferensi menunjukkan bahwa kami memasuki fase baru di mana efisiensi penyebaran dan kemampuan penalaran menjadi pusat perhatian.
Transisi ini masuk akal. Pelatihan terjadi sekali, tetapi operasi inferensi terjadi miliaran kali setiap hari karena pengguna berinteraksi dengan sistem AI. Ekonomi AI semakin terkait dengan biaya inferensi, terutama karena model tumbuh lebih kompleks dan intensif secara komputasi.
Selama konferensi pers, Vahdat mengungkapkan bahwa Google telah mengamati peningkatan 10x tahun-ke-tahun dalam permintaan untuk komputasi AI selama delapan tahun terakhir-faktor mengejutkan 100 juta secara keseluruhan. Tidak ada jumlah perkembangan hukum Moore yang dapat memenuhi kurva pertumbuhan ini tanpa arsitektur khusus seperti Ironwood.
Yang paling penting adalah fokus pada “model berpikir” yang melakukan tugas penalaran yang kompleks daripada pengenalan pola sederhana. Ini menunjukkan Google melihat masa depan AI tidak hanya dalam model yang lebih besar, tetapi dalam model yang dapat memecah masalah, alasan melalui beberapa langkah, dan pada dasarnya mensimulasikan proses pemikiran seperti manusia.
Mesin Berpikir Gemini: Bagaimana model Google Next-Gen memanfaatkan perangkat keras canggih
Google memposisikan Ironwood sebagai fondasi untuk model AI paling canggih, termasuk Gemini 2.5, yang oleh perusahaan menggambarkan memiliki “kemampuan berpikir secara asli dibangun.”
Di konferensi tersebut, Google juga mengumumkan Flash Gemini 2.5, versi yang lebih hemat biaya dari model andalannya yang “menyesuaikan kedalaman penalaran berdasarkan kompleksitas prompt.” Sementara Gemini 2.5 Pro dirancang untuk kasus penggunaan yang kompleks seperti penemuan obat dan pemodelan keuangan, Gemini 2.5 Flash diposisikan untuk aplikasi sehari -hari di mana responsif sangat penting.
Perusahaan juga menunjukkan rangkaian lengkap model media generatif, termasuk teks-ke-gambar, teks-ke-video, dan kemampuan teks-ke-musik yang baru diumumkan yang disebut Lyria. Demonstrasi menunjukkan bagaimana alat -alat ini dapat digunakan bersama untuk membuat video promosi lengkap untuk konser.
Beyond Silicon: Strategi infrastruktur komprehensif Google mencakup jaringan dan perangkat lunak
Ironwood hanyalah salah satu bagian dari strategi infrastruktur AI Google yang lebih luas. Perusahaan juga mengumumkan Cloud WAN, layanan jaringan area lebar yang dikelola yang memberikan bisnis akses ke infrastruktur jaringan swasta skala planet Google.
“Cloud WAN adalah tulang punggung jaringan perusahaan yang sepenuhnya dikelola, layak dan aman yang menyediakan kinerja jaringan hingga 40%, sementara juga mengurangi total biaya kepemilikan dengan 40% yang sama,” kata Vahdat.
Google juga memperluas penawaran perangkat lunaknya untuk beban kerja AI, termasuk Pathways, runtime pembelajaran mesin yang dikembangkan oleh Google DeepMind. Pathways di Google Cloud memungkinkan pelanggan untuk mengeluarkan model yang melayani di ratusan TPU.
Ekonomi AI: Bagaimana $ 12 miliar bisnis Cloud Google berencana untuk memenangkan perang efisiensi
Pengumuman perangkat keras dan perangkat lunak ini datang pada waktu yang penting untuk Google Cloud, yang melaporkan $ 12 miliar pada pendapatan Q4 2024, naik 30% dari tahun ke tahun, dalam laporan pendapatan terbarunya.
Ekonomi penyebaran AI semakin menjadi faktor pembeda dalam perang cloud. Google menghadapi persaingan yang intens dari Microsoft Azure, yang telah memanfaatkan kemitraan OpenAI -nya menjadi posisi pasar yang tangguh, dan Amazon Web Services, yang terus memperluas penawaran chip Falium dan Inferentia -nya.
Apa yang memisahkan pendekatan Google adalah integrasi vertikal. Sementara saingan memiliki kemitraan dengan produsen chip atau startup yang diperoleh, Google telah mengembangkan TPU di rumah selama lebih dari satu dekade. Ini memberi perusahaan kontrol yang tak tertandingi atas tumpukan AI -nya, dari silikon ke perangkat lunak ke layanan.
Dengan membawa teknologi ini ke pelanggan perusahaan, Google bertaruh bahwa pengalamannya yang sulit dimenangkan membangun chip untuk pencarian, Gmail, dan YouTube akan diterjemahkan menjadi keunggulan kompetitif di pasar perusahaan. Strateginya jelas: menawarkan infrastruktur yang sama yang memberi kekuatan pada AI Google sendiri, pada skala, kepada siapa pun yang bersedia membayarnya.
Ekosistem multi-agen: rencana berani Google untuk sistem AI yang bekerja bersama
Di luar perangkat keras, Google menguraikan visi untuk AI yang berpusat di sekitar sistem multi-agen. Perusahaan mengumumkan Kit Pengembangan Agen (ADK) yang memungkinkan pengembang untuk membangun sistem di mana banyak agen AI dapat bekerja sama.
Mungkin yang paling penting, Google mengumumkan “protokol interoperabilitas agen-ke-agen” (A2A) yang memungkinkan agen AI yang dibangun di atas kerangka kerja yang berbeda dan oleh vendor yang berbeda untuk berkomunikasi satu sama lain.
“2025 akan menjadi tahun transisi di mana AI generatif bergeser dari menjawab pertanyaan tunggal ke memecahkan masalah yang kompleks melalui sistem agen,” prediksi Vahdat.
Google bermitra dengan lebih dari 50 pemimpin industri, termasuk Salesforce, ServiceNow, dan SAP, untuk memajukan standar interoperabilitas ini.
Pemeriksaan Realitas Perusahaan: Apa arti kekuatan dan efisiensi Ironwood untuk strategi AI Anda
Untuk perusahaan yang menggunakan AI, pengumuman ini dapat secara signifikan mengurangi biaya dan kompleksitas menjalankan model AI canggih. Efisiensi Ironwood yang lebih baik dapat membuat menjalankan model penalaran canggih lebih ekonomis, sementara protokol interoperabilitas agen dapat membantu bisnis menghindari penguncian vendor.
Dampak dunia nyata dari kemajuan ini tidak boleh diremehkan. Banyak organisasi enggan menggunakan model AI canggih karena biaya infrastruktur yang mahal dan konsumsi energi. Jika Google dapat memenuhi janji kinerja-per-watt, kita dapat melihat gelombang baru adopsi AI di industri yang sejauh ini tetap di sela-sela.
Pendekatan multi-agen sama-sama signifikan untuk perusahaan yang kewalahan oleh kompleksitas AI menggunakan sistem dan vendor yang berbeda. Dengan menstandarkan bagaimana sistem AI berkomunikasi, Google berusaha memecah silo yang memiliki dampak perusahaan AI terbatas.
Selama konferensi pers, Google menekankan bahwa lebih dari 400 cerita pelanggan akan dibagikan di Next '25, menampilkan dampak bisnis nyata dari inovasi AI -nya.
The Silicon Arms Race: Apakah chip khusus Google dan standar membuka kembali masa depan AI?
Seiring AI terus maju, infrastruktur yang menghidupkannya akan menjadi semakin kritis. Investasi Google dalam perangkat keras khusus seperti Ironwood, dikombinasikan dengan inisiatif interoperabilitas agennya, menyarankan perusahaan memposisikan dirinya untuk masa depan di mana AI menjadi lebih terdistribusi, lebih kompleks, dan lebih terintegrasi ke dalam operasi bisnis.
“Model pemikiran terkemuka seperti Gemini 2.5 dan pemenang Hadiah Nobel Alphafold semuanya berjalan di TPU hari ini,” kata Vahdat. “Dengan Ironwood kami tidak sabar untuk melihat apa terobosan AI yang dipicu oleh pengembang kami sendiri dan pelanggan Google Cloud ketika tersedia akhir tahun ini.”
Implikasi strategis melampaui bisnis Google sendiri. Dengan mendorong standar terbuka dalam komunikasi agen sambil mempertahankan keunggulan eksklusif dalam perangkat keras, Google sedang mencoba tindakan penyeimbangan yang rumit. Perusahaan ingin ekosistem yang lebih luas berkembang (dengan infrastruktur Google di bawahnya), sambil tetap mempertahankan diferensiasi kompetitif.
Seberapa cepat pesaing menanggapi kemajuan perangkat keras Google dan apakah industri bersatu di sekitar standar interoperabilitas agen yang diusulkan akan menjadi faktor kunci untuk diawasi di bulan -bulan mendatang. Jika sejarah adalah panduan apa pun, kita dapat mengharapkan Microsoft dan Amazon untuk melawan dengan strategi optimasi inferensi mereka sendiri, berpotensi menyiapkan perlombaan tiga arah untuk membangun tumpukan infrastruktur AI yang paling efisien.