Nvidia, nhà sản xuất chip đồ họa lớn của Mỹ. (Hình ảnh Justin Sullivan/Getty)
HOA KỲ - Thứ Hai (13/11), Nvidia, nhà sản xuất chip đồ họa lớn của Mỹ công bố rằng, họ sẽ tiến hành nâng cấp lớn dựa trên chip trí thông minh nhân tạo (AI) H100 hàng đầu hiện nay và cho ra mắt chip H200 thế hệ mới, tăng gấp đôi tốc độ tính toán.
So với H100, băng thông bộ nhớ của H200 tăng 1,4 lần và dung lượng tăng 1,8 lần, cải thiện đáng kể khả năng xử lý công việc trí thông minh nhân tạo (AI) chuyên sâu.
Nvidia cho biết H200 áp dụng thông số bộ nhớ băng thông cao (HBM3e), giúp tăng băng thông bộ nhớ GPU từ 3,35TB/giây của H100 lên 4,8TB/giây, đồng thời tổng dung lượng bộ nhớ cũng tăng từ 80GB của H100 lên 141GB. So với H100 thì mẫu Llama 2 tốt hơn. Tốc độ tính toán gần như tăng gấp đôi.
Điều đáng chú ý là H200 cũng tương thích với các hệ thống đã hỗ trợ H100. Việc giao hàng H200 dự kiến sẽ bắt đầu vào quý 2 năm sau. Nvidia vẫn chưa công bố giá.
Nvidia không tiết lộ nhà cung cấp chip nhớ mới của mình, nhưng Micron Technology (Micron) cho biết vào tháng 9 rằng họ đang tìm cách trở thành nhà cung cấp cho Nvidia.
Ngoài ra, Nvidia còn mua bộ nhớ từ SK Hynix của Hàn Quốc. SK Hynix tháng trước cho biết doanh thu quý 3 của họ đạt kết quả tốt nhờ đơn đặt hàng từ Nvidia.
Nvidia cho biết, Amazon Web Services, Google Cloud, Microsoft Azure và Oracle Cloud Structure sẽ là những nhà cung cấp dịch vụ đám mây đầu tiên mua chip H200.
(Theo The Epoch Times)
(ntdvn.net; Lý Ngọc biên dịch)