
Bergabunglah dengan buletin harian dan mingguan kami untuk pembaruan terbaru dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari lebih lanjut
Google Cloud membuat permainan yang agresif untuk memperkuat posisinya dalam lanskap kecerdasan buatan yang semakin kompetitif, mengumumkan serangkaian teknologi baru yang berfokus pada “model pemikiran,” ekosistem agen, dan infrastruktur khusus yang dirancang khusus untuk penyebaran AI skala besar.
Pada konferensi cloud tahunan berikutnya di Las Vegas hari ini, Google mengungkapkan Unit Pemrosesan Tensor Generasi Ketujuh (TPU) yang disebut Ironwood, yang diklaim perusahaan memberikan lebih dari 42 exaflops daya komputasi per pod-24 kali lebih kuat daripada superkomputer terkemuka dunia, El Capitan.
“Peluang dengan AI sama besarnya,” kata Amin Vahdat, wakil presiden Google dan manajer umum ML Systems dan Cloud AI, selama konferensi pers sebelum acara. “Bersama dengan pelanggan kami, kami mendukung zaman keemasan baru inovasi.”
Konferensi ini datang pada saat yang sangat penting bagi Google, yang telah melihat momentum yang cukup besar dalam bisnis cloud -nya. Pada bulan Januari, perusahaan melaporkan bahwa pendapatan cloud Q4 2024 mencapai $ 12 miliar, kenaikan 30% dari tahun ke tahun. Eksekutif Google mengatakan pengguna aktif di AI Studio dan Gemini API telah meningkat sebesar 80% hanya dalam sebulan terakhir.
Bagaimana TPU Ironwood baru Google mengubah komputasi AI dengan efisiensi daya
Google memposisikan dirinya sebagai satu-satunya penyedia cloud utama dengan “platform yang sepenuhnya dioptimalkan AI” yang dibangun dari bawah ke atas untuk apa yang disebutnya “zaman inferensi”-di mana fokus bergeser dari pelatihan model ke benar-benar menggunakan sistem AI untuk menyelesaikan masalah dunia nyata.
Bintang pengumuman infrastruktur Google adalah Ironwood, yang merupakan perubahan mendasar dalam filosofi desain chip. Tidak seperti generasi sebelumnya yang seimbang pelatihan dan inferensi, Ironwood dibangun secara khusus untuk menjalankan model AI kompleks setelah mereka dilatih.
“Ini bukan lagi tentang data yang dimasukkan ke dalam model, tetapi apa yang dapat dilakukan model dengan data setelah dilatih,” jelas Vahdat.
Setiap pod Ironwood berisi lebih dari 9.000 chip dan memberikan efisiensi daya dua kali lebih baik daripada generasi sebelumnya. Fokus pada efisiensi ini membahas salah satu kekhawatiran yang paling mendesak tentang AI generatif: konsumsi energinya yang sangat besar.
Selain chip baru, Google membuka infrastruktur jaringan global yang besar untuk melahirkan pelanggan melalui Cloud WAN (Wide Area Network). Layanan ini membuat Jaringan Serat Google 2 juta mil-yang sama yang memberi daya pada layanan konsumen seperti YouTube dan Gmail-tersedia untuk bisnis.
Menurut Google, Cloud WAN meningkatkan kinerja jaringan hingga 40% sementara secara bersamaan mengurangi total biaya kepemilikan dengan persentase yang sama dibandingkan dengan jaringan yang dikelola pelanggan. Ini merupakan langkah yang tidak biasa untuk hiperscaler, pada dasarnya mengubah infrastruktur internalnya menjadi produk.
Inside Gemini 2.5: Bagaimana 'Model Berpikir' Google Meningkatkan Aplikasi AI Perusahaan
Di sisi perangkat lunak, Google memperluas keluarga model Gemini dengan Gemini 2.5 Flash, versi hemat biaya dari sistem AI andalannya yang mencakup apa yang digambarkan perusahaan sebagai “kemampuan berpikir.”
Tidak seperti model bahasa besar tradisional yang menghasilkan respons secara langsung, “model berpikir” ini memecah masalah kompleks melalui penalaran multi-langkah dan bahkan refleksi diri. Gemini 2.5 Pro, yang diluncurkan dua minggu lalu, diposisikan untuk kasus penggunaan kompleksitas tinggi seperti penemuan obat dan pemodelan keuangan, sedangkan varian Flash yang baru diumumkan menyesuaikan kedalaman penalaran berdasarkan kompleksitas cepat untuk menyeimbangkan kinerja dan biaya.
Google juga secara signifikan memperluas kemampuan media generatifnya dengan pembaruan ke Imagen (untuk pembuatan gambar), VEO (video), Chirp (Audio), dan pengenalan Lyria, model teks-ke-musik. Selama demonstrasi selama konferensi pers, Nenshad Bardoliwalla, Direktur Manajemen Produk untuk Vertex AI, menunjukkan bagaimana alat -alat ini dapat bekerja sama untuk membuat video promosi untuk konser, lengkap dengan musik khusus dan kemampuan pengeditan yang canggih seperti menghapus elemen yang tidak diinginkan dari klip video.
“Hanya Vertex AI menyatukan semua model ini, bersama dengan model pihak ketiga ke satu platform,” kata Bardoliwalla.
Di luar sistem AI tunggal: bagaimana ekosistem multi-agen Google bertujuan untuk meningkatkan alur kerja perusahaan
Mungkin pengumuman yang paling berwawasan ke depan yang berfokus pada menciptakan apa yang disebut Google sebagai “ekosistem multi-agen”-lingkungan di mana banyak sistem AI dapat bekerja bersama di berbagai platform dan vendor.
Google memperkenalkan Kit Pengembangan Agen (ADK) yang memungkinkan pengembang untuk membangun sistem multi-agen dengan kurang dari 100 baris kode. Perusahaan juga mengusulkan protokol terbuka baru yang disebut Agent2Agent (A2A) yang akan memungkinkan agen AI dari vendor yang berbeda untuk berkomunikasi satu sama lain.
“2025 akan menjadi tahun transisi di mana AI generatif bergeser dari menjawab pertanyaan tunggal ke memecahkan masalah yang kompleks melalui sistem agen,” prediksi Vahdat.
Lebih dari 50 mitra telah menandatangani kontrak untuk mendukung protokol ini, termasuk penyedia perangkat lunak perusahaan besar seperti Salesforce, ServiceNow, dan SAP, menunjukkan pergeseran industri potensial menuju sistem AI yang dapat dioperasikan.
Untuk pengguna non-teknis, Google meningkatkan platform ruang agennya dengan fitur-fitur seperti agen galeri (memberikan satu tampilan agen yang tersedia) dan perancang agen (antarmuka tanpa kode untuk membuat agen khusus). Selama demonstrasi, Google menunjukkan bagaimana manajer rekening perbankan dapat menggunakan alat -alat ini untuk menganalisis portofolio klien, memperkirakan masalah arus kas, dan secara otomatis menyusun komunikasi kepada klien – semuanya tanpa menulis kode apa pun.
Dari ringkasan dokumen hingga pesanan drive-thru: Bagaimana agen AI khusus Google mempengaruhi industri
Google juga sangat mengintegrasikan AI di seluruh ruang produktivitas ruang kerja, dengan fitur-fitur baru seperti “Help Me Analisis” dalam lembaran, yang secara otomatis mengidentifikasi wawasan dari data tanpa formula eksplisit atau tabel pivot, dan ikhtisar audio dalam dokumen, yang membuat versi audio seperti audio seperti dokumen.
Perusahaan menyoroti lima kategori agen khusus di mana ia melihat adopsi yang signifikan: layanan pelanggan, pekerjaan kreatif, analisis data, pengkodean, dan keamanan.
Di ranah Layanan Pelanggan, Google menunjuk ke sistem drive-through AI Wendy, yang sekarang menangani 60.000 pesanan setiap hari, dan agen “Magic Apron” Home Depot yang menawarkan panduan perbaikan rumah. Untuk tim kreatif, perusahaan seperti WPP menggunakan AI Google untuk mengonseptualisasikan dan menghasilkan kampanye pemasaran pada skala.
Kompetisi AI Cloud mengintensifkan: Bagaimana pendekatan komprehensif Google menantang Microsoft dan Amazon
Pengumuman Google datang di tengah kompetisi yang mengintensifkan di ruang AI cloud. Microsoft telah sangat mengintegrasikan teknologi Openai di seluruh platform Azure-nya, sementara Amazon telah membangun penawaran bertenaga antropiknya sendiri dan chip khusus.
Thomas Kurian, CEO Google Cloud, menekankan “komitmen perusahaan untuk memberikan infrastruktur, model, platform, dan agen kelas dunia; menawarkan platform terbuka, multi-cloud yang memberikan fleksibilitas dan pilihan; dan membangun untuk interoperabilitas.”
Pendekatan multi-cabang ini tampaknya dirancang untuk membedakan Google dari pesaing yang mungkin memiliki kekuatan di bidang tertentu tetapi bukan tumpukan penuh dari chip ke aplikasi.
Masa Depan Perusahaan AI: Mengapa 'Model Berpikir' dan Interoperabilitas Google penting untuk Teknologi Bisnis
Apa yang membuat pengumuman Google sangat signifikan adalah sifat komprehensif dari strategi AI -nya, mencakup silikon khusus, jaringan global, pengembangan model, kerangka kerja agen, dan integrasi aplikasi.
Fokus pada optimasi inferensi daripada hanya kemampuan pelatihan mencerminkan pasar AI yang matang. Sementara pelatihan model yang semakin besar telah mendominasi berita utama, kemampuan untuk menggunakan model-model ini secara efisien dalam skala menjadi tantangan yang lebih mendesak bagi perusahaan.
Penekanan Google pada interoperabilitas – memungkinkan sistem dari vendor yang berbeda untuk bekerja bersama – juga dapat menandakan pergeseran dari pendekatan taman berdinding yang telah mengkarakterisasi fase komputasi awan sebelumnya. Dengan mengusulkan protokol terbuka seperti Agent2Agent, Google memposisikan dirinya sebagai jaringan ikat dalam ekosistem AI yang heterogen daripada menuntut adopsi semua atau tidak sama sekali.
Untuk pembuat keputusan teknis perusahaan, pengumuman ini menghadirkan peluang dan tantangan. Keuntungan efisiensi yang dijanjikan oleh infrastruktur khusus seperti Ironwood TPU dan Cloud WAN dapat secara signifikan mengurangi biaya menggunakan AI pada skala. Namun, menavigasi lanskap model, agen, dan alat yang berkembang pesat akan membutuhkan perencanaan strategis yang cermat.
Ketika sistem AI yang lebih canggih ini terus berkembang, kemampuan untuk mengatur beberapa agen AI khusus yang bekerja dalam konser dapat menjadi pembeda utama untuk implementasi AI perusahaan. Dalam membangun komponen dan koneksi di antara mereka, Google bertaruh bahwa masa depan AI bukan hanya tentang mesin yang lebih pintar, tetapi tentang mesin yang dapat secara efektif berbicara satu sama lain.