
Bergabunglah dengan buletin harian dan mingguan kami untuk pembaruan terbaru dan konten eksklusif tentang liputan AI terkemuka di industri. Pelajari lebih lanjut
Pada konferensi NVIDIA GTC baru-baru ini, perusahaan meluncurkan apa yang digambarkan sebagai sistem server satu tali pertama yang mampu satu exaflop-satu miliar miliar, atau satu miliar, operasi poin mengambang (flops) per detik. Terobosan ini didasarkan pada sistem GB200 NVL72 terbaru, yang menggabungkan unit pemrosesan grafis Blackwell terbaru NVIDIA (GPU). Rak komputer standar tingginya sekitar 6 kaki, sedalam sedikit lebih dari 3 kaki dan kurang dari 2 kaki lebar.
Menyusut eksaflop: dari perbatasan ke blackwell
Beberapa hal tentang pengumuman itu mengejutkan saya. Pertama, komputer berkemampuan Exaflop pertama di dunia dipasang hanya beberapa tahun yang lalu, pada tahun 2022, di Oak Ridge National Laboratory. Sebagai perbandingan, superkomputer “Frontier” yang dibangun oleh HPE dan ditenagai oleh AMD GPU dan CPU, awalnya terdiri dari 74 rak server. Sistem NVIDIA yang baru telah mencapai sekitar 73x kepadatan kinerja yang lebih besar hanya dalam tiga tahun, setara dengan tiga kali lipat kinerja setiap tahun. Kemajuan ini mencerminkan kemajuan luar biasa dalam kepadatan komputasi, efisiensi energi dan desain arsitektur.
Kedua, perlu dikatakan bahwa sementara kedua sistem mencapai tonggak exascale, mereka dibangun untuk tantangan yang berbeda, satu dioptimalkan untuk kecepatan, yang lain untuk presisi. Spesifikasi Exaflop NVIDIA didasarkan pada matematika presisi rendah-khususnya operasi floating-point 4-bit dan 8-bit-dianggap optimal untuk beban kerja AI termasuk tugas seperti pelatihan dan menjalankan model bahasa besar (LLM). Perhitungan ini memprioritaskan kecepatan daripada presisi. Sebaliknya, peringkat exaflop untuk Frontier dicapai dengan menggunakan matematika presisi ganda 64-bit, standar emas untuk simulasi ilmiah di mana akurasi sangat penting.
Kami telah menempuh jalan panjang (sangat cepat)
Tingkat kemajuan ini tampaknya hampir tidak dapat dipercaya, terutama ketika saya mengingat canggih ketika saya memulai karir saya di industri komputasi. Pekerjaan profesional pertama saya adalah sebagai seorang programmer di DEC KL 1090. Mesin ini, bagian dari seri mainframe timeshare PDP-10 DEC, menawarkan 1,8 juta instruksi per detik (MIPS). Selain dari kinerja CPU, mesin yang terhubung ke Cathode Ray Tube (CRT) ditampilkan melalui kabel hardwired. Tidak ada kemampuan grafis, hanya teks terang dengan latar belakang gelap. Dan tentu saja, tidak ada internet. Pengguna jarak jauh yang terhubung melalui saluran telepon menggunakan modem yang berjalan dengan kecepatan hingga 1.200 bit per detik.
500 miliar kali lebih komputasi
Sementara membandingkan MIPS dengan Flops memberikan rasa kemajuan umum, penting untuk diingat bahwa metrik ini mengukur beban kerja komputasi yang berbeda. MIPS mencerminkan kecepatan pemrosesan integer, yang berguna untuk komputasi tujuan umum, terutama dalam aplikasi bisnis. Kecanggang mengukur kinerja titik mengambang yang sangat penting untuk beban kerja ilmiah dan angka-angka yang berat di belakang AI modern, seperti matriks matematika dan aljabar linier yang digunakan untuk melatih dan menjalankan model pembelajaran mesin (ML).
Meskipun bukan perbandingan langsung, skala perbedaan antara MIPS saat itu dan jepit sekarang memberikan ilustrasi yang kuat tentang pertumbuhan cepat dalam kinerja komputasi. Dengan menggunakan ini sebagai heuristik kasar untuk mengukur pekerjaan yang dilakukan, sistem NVIDIA yang baru sekitar 500 miliar kali lebih kuat daripada mesin DEC. Lompatan semacam itu mencontohkan pertumbuhan eksponensial dari kekuatan komputasi selama satu karier profesional dan menimbulkan pertanyaan: jika kemajuan sebanyak ini mungkin dalam 40 tahun, apa yang mungkin dibawa oleh 5 berikutnya?
Nvidia, pada bagiannya, telah menawarkan beberapa petunjuk. Di GTC, perusahaan berbagi peta jalan yang memprediksi bahwa sistem rak penuh generasi berikutnya berdasarkan arsitektur ultra “Vera Rubin” akan memberikan 14x kinerja pengiriman Blackwell Ultra Rack tahun ini, mencapai antara 14 dan 15 exaflop dalam pekerjaan yang dioptimalkan pada tahun atau dua tahun berikutnya.
Sama pentingnya adalah efisiensi. Mencapai tingkat kinerja ini dalam satu rak berarti lebih sedikit ruang fisik per unit pekerjaan, lebih sedikit bahan dan potensi penggunaan energi yang lebih rendah per operasi, meskipun tuntutan daya absolut dari sistem ini tetap luar biasa.
Apakah AI benar -benar membutuhkan semua daya komputasi itu?
Sementara keuntungan kinerja seperti itu memang mengesankan, industri AI sekarang bergulat dengan pertanyaan mendasar: berapa banyak daya komputasi yang benar -benar diperlukan dan berapa biaya? Perlombaan untuk membangun pusat data AI baru yang sangat besar didorong oleh meningkatnya tuntutan komputasi exascale dan model AI yang mampu yang semakin besar.
Upaya yang paling ambisius adalah Project Stargate senilai $ 500 miliar, yang membayangkan 20 pusat data di seluruh AS, masing -masing mencakup setengah juta kaki persegi. Gelombang proyek hiperskala lainnya sedang berlangsung atau dalam tahap perencanaan di seluruh dunia, karena perusahaan dan negara berebut untuk memastikan mereka memiliki infrastruktur untuk mendukung beban kerja AI besok.
Beberapa analis sekarang khawatir bahwa kita mungkin membangun kembali kapasitas pusat data AI. Kekhawatiran meningkat setelah pelepasan R1, model penalaran dari Deepseek China yang membutuhkan komputasi yang jauh lebih sedikit daripada banyak rekannya. Microsoft kemudian membatalkan sewa dengan beberapa penyedia pusat data, memicu spekulasi bahwa itu mungkin mengkalibrasi ulang harapannya untuk permintaan infrastruktur AI di masa depan.
Namun, Register Disarankan bahwa kemunduran ini mungkin lebih berkaitan dengan beberapa pusat data AI yang direncanakan tidak memiliki kemampuan yang cukup kuat untuk mendukung daya dan kebutuhan pendinginan sistem AI generasi berikutnya. Model AI sudah mendorong batas apa yang dapat didukung oleh infrastruktur saat ini. MIT Technology Review melaporkan bahwa ini mungkin menjadi alasan banyak pusat data di Cina berjuang dan gagal, telah dibangun dengan spesifikasi yang tidak optimal untuk kebutuhan saat ini, apalagi dari beberapa tahun ke depan.
Inferensi AI menuntut lebih banyak jepit
Model penalaran melakukan sebagian besar pekerjaan mereka saat runtime melalui proses yang dikenal sebagai inferensi. Model-model ini mendukung beberapa aplikasi paling canggih dan intensif sumber daya saat ini, termasuk asisten peneliti yang mendalam dan gelombang sistem AI agen yang muncul.
Sementara Deepseek-R1 awalnya menakuti industri untuk berpikir bahwa AI di masa depan mungkin membutuhkan lebih sedikit Daya Komputasi, CEO NVIDIA Jensen Huang mendorong kembali dengan keras. Berbicara kepada CNBC, ia membalas persepsi ini: “Itu adalah kesimpulan sebaliknya yang dimiliki semua orang.” Dia menambahkan bahwa penalaran AI mengkonsumsi 100x lebih komputasi daripada AI yang tidak masuk akal.
Karena AI terus berkembang dari model penalaran menjadi agen otonom dan seterusnya, permintaan untuk komputasi cenderung melonjak sekali lagi. Terobosan berikutnya mungkin datang tidak hanya dalam bahasa atau visi, tetapi dalam koordinasi agen AI, simulasi fusi atau bahkan kembar digital skala besar, masing-masing dimungkinkan oleh jenis lompatan kemampuan komputasi yang baru saja kita saksikan.
Tampaknya tepat di CUE, Openai baru saja mengumumkan $ 40 miliar dalam pendanaan baru, putaran pendanaan teknologi swasta terbesar dalam catatan. Perusahaan mengatakan dalam posting blog bahwa pendanaan “memungkinkan kami untuk mendorong perbatasan penelitian AI lebih jauh, skala infrastruktur komputasi kami dan memberikan alat yang semakin kuat untuk 500 juta orang yang menggunakan chatgpt setiap minggu.”
Mengapa begitu banyak modal mengalir ke AI? Alasannya berkisar dari daya saing hingga keamanan nasional. Meskipun satu faktor tertentu menonjol, sebagaimana dicontohkan oleh tajuk McKinsey: “AI dapat meningkatkan laba perusahaan sebesar $ 4,4 triliun per tahun.”
Apa yang terjadi selanjutnya? Itu dugaan siapa pun
Pada intinya, sistem informasi adalah tentang abstrak kompleksitas, baik melalui sistem routing kendaraan darurat yang pernah saya tulis di Fortran, alat pelaporan prestasi siswa yang dibangun di COBOL, atau sistem AI modern yang mempercepat penemuan obat. Tujuannya selalu sama: untuk memahami dunia yang lebih besar.
Sekarang, dengan AI yang kuat mulai muncul, kami melintasi ambang batas. Untuk pertama kalinya, kita mungkin memiliki kekuatan komputasi dan kecerdasan untuk mengatasi masalah yang dulunya di luar jangkauan manusia.
Kolumnis New York Times Kevin Roose baru-baru ini menangkap momen ini dengan baik: “Setiap minggu, saya bertemu insinyur dan pengusaha yang bekerja pada AI yang memberi tahu saya bahwa perubahan-perubahan besar, perubahan yang mengguncang dunia, jenis transformasi yang belum pernah kita lihat sebelumnya-hanya sekitar sudut.” Dan itu bahkan tidak menghitung terobosan yang tiba setiap minggu.
Hanya dalam beberapa hari terakhir, kami telah melihat Openai's GPT-4O menghasilkan gambar yang hampir sempurna dari teks, Google melepaskan apa yang mungkin menjadi model penalaran paling canggih di Gemini 2.5 Pro dan Runway mengungkap model video dengan konsistensi karakter dan adegan bidikan, sesuatu yang dapat disingkirkan oleh sebagian besar generator video AI hingga sekarang.
Apa yang terjadi selanjutnya benar -benar dugaan. Kami tidak tahu apakah AI yang kuat akan menjadi terobosan atau kerusakan, apakah itu akan membantu menyelesaikan energi fusi atau melepaskan risiko biologis baru. Tetapi dengan semakin banyak kegagalan online selama lima tahun ke depan, satu hal yang tampaknya pasti: inovasi akan datang dengan cepat – dan dengan kekuatan. Jelas juga, bahwa sebagai skala jepit, demikian juga percakapan kita tentang tanggung jawab, regulasi, dan pengekangan.
Gary Grossman adalah EVP praktik teknologi di Edelman dan pemimpin global Pusat Keunggulan AI Edelman.