
AMD meluncurkan visi platform AI terintegrasi yang komprehensif dan memperkenalkan infrastruktur AI skala rak yang terbuka dan dapat diskalakan yang dibangun di atas standar industri pada acara AI tahunan yang maju.
Pembuat chip Santa Clara, California yang berbasis di California mengumumkan akselerator seri AMD Insting MI350 yang baru, yang empat kali lebih cepat pada komputasi AI dan 35 kali lebih cepat pada inferencing daripada chip sebelumnya.
AMD dan mitranya memamerkan produk-produk berbasis AMD dan pertumbuhan yang berkelanjutan dari ekosistem AMD ROCM. Ini juga menunjukkan desain dan roadmap skala terbuka yang kuat, baru, yang membawa skala Rak Kepemimpinan AI kinerja di luar 2027.
“Kita sekarang dapat mengatakan bahwa kita berada di titik inferensi inferensi, dan itu akan menjadi pengemudi,” kata Lisa Su, CEO AMD, dalam keynote di acara AI yang maju.
Sebagai penutup, dalam jab di Nvidia, dia berkata, “Masa depan AI tidak akan dibangun oleh satu perusahaan atau dalam sistem tertutup. Ini akan dibentuk oleh kolaborasi terbuka di seluruh industri dengan semua orang yang membawa ide -ide terbaik mereka.”
AMD meluncurkan GPU Seri MI350 Insting, menetapkan tolok ukur baru untuk kinerja, efisiensi dan skalabilitas dalam AI generatif dan komputasi kinerja tinggi. Seri MI350, yang terdiri dari GPU dan platform MI350X dan MI355X, menghasilkan peningkatan komputasi AI generasi-on-generasi empat kali dan lompatan generasi 35 kali dalam menyimpulkan, membuka jalan bagi solusi AI transformatif di seluruh industri.
“Kami sangat senang dengan pekerjaan yang Anda lakukan di AMD,” kata Sam Altman, CEO Open AI, di atas panggung dengan Lisa Su.
Dia mengatakan dia tidak bisa mempercayainya ketika dia mendengar tentang spesifikasi untuk MI350 dari AMD, dan dia bersyukur bahwa AMD menerima umpan balik perusahaannya.

AMD demonstrated end-to-end, open-standards rack-scale AI infrastructure—already rolling out with AMD Instinct MI350 Series accelerators, 5th Gen AMD Epyc processors and AMD Pensando Pollara network interface cards (NICs) in hyperscaler deployments such as Oracle Cloud Infrastructure (OCI) and set for broad availability in 2H 2025. AMD also previewed its next generation Rak AI disebut Helios.
Ini akan dibangun di GPU Seri AMD MI400 generasi berikutnya, AMD EpyC Venice CPU yang berbasis di Zen 6 dan AMD Pensando Vulcano Nics.
“Saya pikir mereka menargetkan jenis pelanggan yang berbeda dari NVIDIA,” kata Ben Bajarin, analis di strategi kreatif, dalam sebuah pesan ke Gamesbeat. “Secara khusus saya pikir mereka melihat peluang Neocloud dan seluruh Tier Tier Two dan Tier Three Clouds dan penyebaran perusahaan di tempat.”
Bajarin menambahkan, “Kami bullish pada pergeseran ke sistem penyebaran rak penuh dan di situlah helios cocok di mana akan selaras dengan waktu rubin. Tetapi ketika pasar bergeser ke inferensi, yang kami pikirkan di mana -mana di mana -mana yang ada di mana. Tonton, yang lagi -lagi kembali ke siapa pelanggan yang tepat untuk AMD dan itu mungkin profil pelanggan yang sangat berbeda dari pelanggan untuk NVIDIA. ”
Versi terbaru dari tumpukan perangkat lunak AI open-source AMD, ROCM 7, direkayasa untuk memenuhi tuntutan AI generatif dan beban kerja komputasi berkinerja tinggi-sementara secara dramatis meningkatkan pengalaman pengembang di seluruh papan. (Radeon Open Compute adalah platform perangkat lunak sumber terbuka yang memungkinkan untuk komputasi yang dipercepat GPU pada AMD GPU, terutama untuk komputasi kinerja tinggi dan beban kerja AI). ROCM 7 menampilkan peningkatan dukungan untuk kerangka kerja standar industri, kompatibilitas perangkat keras yang diperluas, dan alat pengembangan baru, driver, API dan perpustakaan untuk mempercepat pengembangan dan penyebaran AI.
Dalam keynote -nya, SU berkata, “Keterbukaan harus lebih dari sekadar kata buzz.”
Seri Insting MI350 melebihi tujuan lima tahun AMD untuk meningkatkan efisiensi energi pelatihan AI dan node komputasi kinerja tinggi sebesar 30 kali, pada akhirnya memberikan peningkatan 38 kali. AMD juga meluncurkan tujuan 2030 baru untuk memberikan peningkatan efisiensi energi skala rak 20 kali dari tahun basis 2024, memungkinkan model AI khas yang saat ini membutuhkan lebih dari 275 rak untuk dilatih dalam kurang dari satu rak yang sepenuhnya digunakan pada tahun 2030, menggunakan listrik 95% lebih sedikit.
AMD juga mengumumkan ketersediaan luas AMD Developer Cloud untuk pengembang global dan komunitas open-source. Dibangun tujuan untuk pengembangan AI yang cepat dan berkinerja tinggi, pengguna akan memiliki akses ke lingkungan cloud yang dikelola sepenuhnya dengan alat dan fleksibilitas untuk memulai dengan proyek AI-dan tumbuh tanpa batas. Dengan ROCM 7 dan AMD Developer Cloud, AMD menurunkan hambatan dan memperluas akses ke komputasi generasi berikutnya. Kolaborasi strategis dengan para pemimpin seperti Hugging Face, Openai dan Grok membuktikan kekuatan solusi terbuka yang dikembangkan bersama. Pengumuman mendapat beberapa sorakan dari orang -orang di antara hadirin, karena perusahaan mengatakan itu akan memberikan kredit pengembang yang hadir.
Ekosistem mitra luas menampilkan kemajuan AI yang didukung oleh AMD

Pelanggan AMD membahas bagaimana mereka menggunakan solusi AMD AI untuk melatih model AI terkemuka saat ini, inferensi daya pada skala dan mempercepat eksplorasi dan pengembangan AI.
Meta merinci bagaimana ia telah memanfaatkan beberapa generasi AMD Instinct dan EpyC solutions di seluruh infrastruktur pusat data, dengan Insting MI300X yang secara luas digunakan untuk inferensi Llama 3 dan Llama 4. Meta terus berkolaborasi erat dengan AMD pada peta jalan AI, termasuk rencana untuk memanfaatkan GPU dan platform seri MI350 dan MI400.
Oracle Cloud Infrastructure adalah salah satu pemimpin industri pertama yang mengadopsi infrastruktur AI skala rak AMD dengan AMD Instinct MI355X GPU. OCI memanfaatkan AMD CPU dan GPU untuk memberikan kinerja yang seimbang dan dapat diukur untuk kluster AI, dan mengumumkan akan menawarkan cluster Zettascale AI yang dipercepat oleh prosesor AMD insting terbaru dengan 131.072 MI355X GPU untuk memungkinkan pelanggan membangun, melatih, dan inferensi AI pada skala.

Microsoft mengumumkan Insting MI300X sekarang mendukung model kepemilikan dan open-source dalam produksi di Azure.
Humain membahas perjanjian tengara dengan AMD untuk membangun infrastruktur AI yang terbuka, dapat diskalakan, tangguh, dan hemat biaya yang memanfaatkan spektrum penuh platform komputasi yang hanya dapat diberikan AMD.cohere yang dibagikan bahwa model-model perintah yang dapat dikerjakan dengan kinerja tinggi, pemindaian data yang berkinerja tinggi dengan inferensial yang berkekuatan tinggi dengan tingkat pemasukan mi300x, yang memiliki inferensi ke dalam lambung tinggi.
Dalam keynote, Red Hat menggambarkan bagaimana kolaborasi yang diperluas dengan AMD memungkinkan lingkungan AI yang siap-produksi, dengan AMD Instinct GPU di Red Hat OpenShift AI memberikan pemrosesan AI yang kuat dan efisien di seluruh lingkungan awan hibrida.
“Mereka bisa mendapatkan hasil maksimal dari perangkat keras yang mereka gunakan,” kata Red Hat Exec di atas panggung.
Astera Labs menyoroti bagaimana ekosistem ualink terbuka mempercepat inovasi dan memberikan nilai yang lebih besar kepada pelanggan dan bersama rencana untuk menawarkan portofolio komprehensif produk Ualink untuk mendukung infrastruktur AI generasi berikutnya. MARVELL BERGABUNG AMD untuk berbagi roadmap ualink.