Scroll ke bawah untuk membaca berita

Logo
Teknologi & Inovasi

Sebagian Chip AI Nvidia Diproduksi di Amerika Serikat

NVIDIA menyiapkan pabrik untuk memproduksi dan menguji chip AI di Arizona dan Texas

18 April 2025 | 18.55 WIB

NVIDIA Blackwell B200. Foto : NVIDIA
Perbesar
NVIDIA Blackwell B200. Foto : NVIDIA

Baca berita dengan sedikit iklan, klik disini

Logo

NVIDIA mengumumkan telah menyiapkan pabrik untuk memproduksi dan menguji chip kecerdasan buatan (AI) di Arizona dan Texas. Langkah ini sebagai bagian dari upaya memindahkan sebagian kegiatan produksinya ke Amerika Serikat.

Dikutip dari Antara, laporan Tech Crunch pada Selasa, 15 April 2025, CEO Nvidia Jensen Huang mengatakan bahwa mesin-mesin penggerak infrastruktur AI sedang dibangun di Amerika Serikat. “Menambah kapasitas manufaktur di Amerika membantu kami memenuhi permintaan chip AI dan superkomputer yang luar biasa dan terus meningkat. Ini memperkuat rantai pasokan kami serta meningkatkan ketahanan,” katanya.

Produksi chip Blackwell telah dimulai di pabrik TSMC di Phoenix, Arizona. Nvidia juga sedang membangun pabrik superkomputer di Texas melalui kerja sama dengan Foxconn di Houston dan Wistron di Dallas. Di Arizona, Nvidia menggandeng Amkor dan SPIL untuk kegiatan pengemasan dan pengujian chip.

Apa Itu Chip Blackwell?

Salah satu produk unggulan Nvidia Blackwell B200. Chip ini dilengkapi dengan 208 miliar transistor, jauh lebih banyak dibandingkan pendahulunya, Hopper H100, yang memiliki 80 miliar transistor. Blackwell B200  menghasilkan performa hingga 20 petaflops dalam format FP4. Konfigurasi GB200, dua chip yang disatukan dalam satu papan inti performa inferensi AI bisa melonjak hingga 30 kali lipat dibandingkan generasi sebelumnya.

Dalam pengujian benchmark untuk model bahasa besar seperti GPT-3, konfigurasi GB200 menunjukkan performa tujuh kali lebih cepat dan kecepatan pelatihan AI empat kali lebih tinggi dibandingkan H100. Blackwell B200 juga lebih hemat energi, hanya memerlukan sekitar 4 megawatt untuk melatih model AI berukuran 1,8 triliun parameter, jauh lebih efisien dibandingkan H100 yang membutuhkan hingga 15 megawatt untuk proses serupa, dikutip Antara.

Nvidia juga memiliki chip saklar jaringan yang mendukung kecepatan komunikasi GPU dua arah hingga 1,8 terabita per-detik. Ini meminimalkan hambatan waktu sistem multi-GPU.  Chip AI seperti Blackwell memproses data dalam skala besar dan mempercepat pelatihan model machine learning yang kompleks.

Pilihan Editor: Meta Menguji Chip Internal untuk Melatih Model AI

Baca berita dengan sedikit iklan, klik disini

Logo

Baca berita dengan sedikit iklan, klik di sini

close

Baca berita dengan sedikit iklan, klik disini

Logo
Logo Tempo
Unduh aplikasi Tempo
download tempo from appstoredownload tempo from playstore
Ikuti Media Sosial Kami
© 2024 Tempo - Hak Cipta Dilindungi Hukum
Beranda Harian Mingguan Tempo Plus