Phát biểu bên lề buổi lễ tốt nghiệp tại Đại học Khoa học và Công nghệ Hồng Kông vào thứ Bảy tuần qua (23/11), Giám đốc điều hành kiêm nhà sáng lập Nvidia Jensen Huang đã nói với báo giới rằng, công ty đang "làm việc nhanh nhất có thể để chứng nhận chip nhớ AI của Samsung".
Huang cũng cho biết Nvidia đang xem xét cả sản phẩm HBM3E 8 lớp và 12 lớp từ Samsung.
High Bandwidth Memory là một gói chip DRAM xếp chồng theo chiều dọc tiên tiến, chủ yếu được sử dụng để tăng hiệu suất của các đơn vị xử lý đồ họa tiên tiến cho các ứng dụng AI. Các chip HBM3E thế hệ thứ năm mới nhất được sử dụng trong Blackwell của Nvidia, hiện là GPU tiên tiến nhất được các công ty công nghệ AI hàng đầu săn đón.
Nhận xét của Huang được đưa ra khi Samsung Electronics đang nỗ lực cung cấp các gói chip DRAM giá trị cao cho Nvidia. Hiện tại, nhà cung cấp chính của Nvidia là đối thủ cạnh tranh cùng thành phố của Samsung là SK hynix.
Trong số ba nhà sản xuất chip trên thế giới có thể sản xuất chip HBM - Samsung, SK hynix và Micron Technology có trụ sở tại Hoa Kỳ - SK hynix đã hưởng lợi nhiều nhất từ thị trường HBM đang phát triển mạnh mẽ, khi đã cung cấp chip HBM3E 8 lớp cho Nvidia kể từ tháng 3.
Hiện đang tụt hậu nhiều tháng so với SK hynix trên thị trường HBM béo bở, mảng kinh doanh chip của Samsung đã kiếm được khoảng một nửa lợi nhuận của đối thủ nhỏ hơn trong Giai đoạn tháng 7-tháng 9.
Khi công bố lợi nhuận quý đáng thất vọng vào tháng trước, Samsung cho biết họ dự kiến sẽ mở rộng doanh số bán HBM3E trong quý 4 năm nay và sản phẩm này dự kiến sẽ chiếm khoảng 50 phần trăm tổng doanh số bán HBM trong giai đoạn đó.
"Đã có sự chậm trễ trong việc thương mại hóa chip HBM3E, nhưng chúng tôi đã đạt được tiến bộ đáng kể khi vượt qua một giai đoạn quan trọng trong quy trình kiểm tra chất lượng chip với khách hàng lớn của mình", Kim Jae-june, phó chủ tịch điều hành phụ trách mảng kinh doanh chip nhớ của Samsung, cho biết trong cuộc gọi thu nhập hàng quý vào ngày 31 tháng 10.
Blackwell của Nvidia, được cho là sẽ thúc đẩy đáng kể hiệu suất của trung tâm dữ liệu AI và dự kiến có giá từ 30.000 đến 40.000 đô la cho mỗi đơn vị, đang có nhu cầu cao trong số các công ty như OpenAI, Microsoft, Meta và các công ty khác đang xây dựng trung tâm dữ liệu AI.
Trong cuộc gọi thu nhập mới nhất vào tuần trước, Huang cho biết sản xuất Blackwell đang diễn ra "hết công suất" và nhu cầu sẽ vượt quá nguồn cung trong nhiều quý nữa.
"Chúng tôi sẽ giao nhiều Blackwell hơn trong quý này so với ước tính trước đó", Huang cho biết. Kể từ khi ra mắt vào tháng 3, Nvidia đã giao 13.000 chip Blackwell cho khách hàng.