NVIDIA klaim performa server berbasis A100 ungguli x86

Dalam sebuah pernyataan, NVIDIA mengatakan bahwa server mereka yang menggunakan GPU A100 berbasis ARM ungguli server berbasis CPU X86.

NVIDIA hingga saat ini masih berusaha mengakuisisi ARM. Mereka mengatakan, di masa depan, komputer atau server yang menggunakan GPU A100 berbasis ARM akan mengungguli komputer berbasis prosesor dengan arsitektur x86.

Bahkan, dalam sebuah pernyataan terbaru, mereka membangga-banggakan salah satu server yang dilengkapi oleh GPU A100 mereka yang menjalankan CPU ARM. Seabb, performa server ini bisa menyaingi performa server yang berbasis CPU x86.

Memang, seperti biasa, CPU berbasis ARM dapat mengalahkan performa CPU berbasis x86 dalam skenario daya rendah serta efisiensi tinggi. Tapi di sisi lain, CPU ARM tidak dapat menskalakan efisiensi daya jika kita berbicara CPU berkecepatan tinggi.

Pihak NVIDIA mengatakan bahwa server yang menggunakan A100 berbasis ARM benar-benar berhasil mengalahkan CPU x86 dalam beban kerja niche 3d-Unet. Tapi, di sisi lain, saat menggunakan workload umum seperti ResNet 50, CPU x86 tetap mendominasi.

“Arm, sebagai anggota pendiri MLCommons, berkomitmen pada proses pembuatan standar dan tolok ukur untuk mengatasi tantangan dengan lebih baik dan menginspirasi inovasi dalam industri komputasi yang dipercepat,” kata direktur senior HPC dan alat di Arm, David Lecomber seperti dikutip dari laman Wccftech (24/9).

“Hasil inferensi terbaru menunjukkan kesiapan sistem berbasis Arm yang didukung oleh CPU berbasis Arm dan GPU NVIDIA untuk menangani beragam beban kerja AI di pusat data,” tambahnya.

Tentu saja, ketika berbicara tentang inferensi, GPU tetap menjadi rajanya. NVIDIA tidak menahan pukulan apapun ketika menunjukkan bahwa GPU A100 104x lebih cepat daripada CPU di benchmark MLPERF.

Sebagai informasi, Inferensi adalah sesuatu yang terjadi ketika komputer menjalankan perangkat lunak AI untuk mengenali suatu objek atau membuat prediksi. Ini adalah proses yang menggunakan model pembelajaran mendalam untuk menyaring data, menemukan hasil yang tidak dapat ditangkap oleh manusia.

Tolok ukur inferensi MLPerf didasarkan pada beban kerja dan skenario AI paling populer saat ini, yang mencakup computer vision, pencitraan medis, pemrosesan bahasa alami, sistem rekomendasi, pembelajaran penguatan, dan banyak lagi.

Semuanya, mulai dari tolok ukur Klasifikasi Gambar ResNet-50 yang populer hingga Natural Language Processing telah diuji dan GPU A100 berkuasa dalam segala hal.

IDCloudHost | SSD Cloud Hosting Indonesia