Theo các nguồn tin, Nvidia được cho là đã bắt đầu thử nghiệm giới hạn của chuỗi cung ứng bộ nhớ AI toàn cầu bằng cách thể hiện sự quan tâm đến bộ nhớ băng thông cao 16 lớp (HBM) với thời gian giao hàng sớm nhất vào cuối năm 2026, buộc Samsung Electronics, SK hynix và Micron Technology phải chạy đua để đáp ứng yêu cầu của các bộ tăng tốc AI thế hệ tiếp theo.
Theo các nguồn tin trong ngành, Nvidia gần đây đã hỏi các nhà cung cấp bộ nhớ lớn liệu họ có thể cung cấp HBM 16 lớp vào quý IV năm 2026 hay không. Các cuộc thảo luận vẫn đang ở giai đoạn thăm dò, chưa có hợp đồng nào được ký kết, nhưng chúng đã thúc đẩy việc lập kế hoạch nội bộ về lịch trình phát triển, mục tiêu năng suất và khối lượng sản xuất ban đầu.
Một số nhà cung cấp dự kiến việc đánh giá hiệu năng sẽ bắt đầu trước quý III năm 2026.
Việc thăm dò này diễn ra khi Nvidia đang chuẩn bị mở rộng sản xuất HBM4 12 lớp, trọng tâm hiện tại của quá trình đánh giá năng lực nhà cung cấp. Các nguồn tin cho biết, việc chuyển sang 16 lớp đang thúc đẩy quá trình chuyển đổi thế hệ, thậm chí trước cả khi HBM4 12 lớp được thương mại hóa hoàn toàn, dự kiến vẫn vào đầu năm 2026. Sản phẩm 16 lớp vẫn dự kiến sẽ được phân loại là HBM4, mặc dù tên gọi có thể chuyển sang HBM4E tùy thuộc vào thông số kỹ thuật cuối cùng và thời điểm ra mắt.
“Nvidia nâng cấp GPU của mình rất mạnh mẽ, và HBM phải phát triển với tốc độ tương tự,” ông Ahn Ki-hyun, phó chủ tịch điều hành Hiệp hội Công nghiệp Bán dẫn Hàn Quốc và là cựu nhân viên của SK hynix, cho biết. “Nếu hiệu năng bộ nhớ không theo kịp, ngay cả một GPU hiệu năng cao hơn cũng mất đi ý nghĩa.”
“Quá trình chuyển đổi từ 12 lên 16 lớp về mặt kỹ thuật khó hơn nhiều so với từ 8 lên 12 lớp,” ông Ahn nói. “Ở giai đoạn đó, không chỉ đơn thuần là thêm lớp. Trong nhiều trường hợp, chính quy trình sản xuất cũng phải thay đổi.”
Các ước tính trong ngành cho thấy việc triển khai HBM 16 lớp yêu cầu độ dày wafer phải giảm xuống khoảng 30 micromet, so với khoảng 50 micromet đối với các thiết kế 12 lớp hiện tại. JEDEC, cơ quan tiêu chuẩn bán dẫn toàn cầu, giới hạn độ dày gói HBM4 ở mức 775 micromet, để lại không gian hạn chế cho việc thu nhỏ hơn nữa thông qua các phương pháp thông thường.
Những hạn chế đó đặt công nghệ liên kết vào trọng tâm của quá trình chuyển đổi. Samsung Electronics và Micron hiện đang dựa vào liên kết nén nhiệt, trong khi SK hynix sử dụng quy trình đổ đầy khuôn chảy lại hàng loạt.
Samsung đã cho biết họ đang xem xét việc giới thiệu liên kết lai bắt đầu với HBM4E 16 lớp thế hệ thứ bảy của mình.
“Samsung đang tập trung vào liên kết lai từ sớm vì họ gặp khó khăn trong việc cạnh tranh với các đối thủ trong các công nghệ dựa trên chất kết dính hiện tại,” Ahn nói. “SK hynix đang quản lý tốc độ của mình. Họ đang phát triển liên kết lai như một phương án dự phòng, đồng thời hướng đến việc tối đa hóa công nghệ MR-MUF hàng đầu ngành của họ càng lâu càng tốt.”
Mặc dù tập trung vào hướng tới tương lai, thị trường ngắn hạn vẫn tập trung vào HBM3E. Các nhà phân tích tại LS Securities ước tính HBM3E sẽ chiếm 66% tổng sản lượng HBM vào năm 2026, giảm so với 87% trong năm nay nhưng vẫn chiếm phần lớn.
Điểm bước ngoặt cạnh tranh dự kiến sẽ diễn ra với sự ra mắt của Rubin, bộ tăng tốc AI thế hệ tiếp theo của Nvidia, dự kiến phát hành vào nửa cuối năm 2026. Mỗi bộ xử lý Rubin dự kiến sẽ sử dụng tám khối HBM4.
Gần đây, Samsung đã nhận được phản hồi tích cực trong các bài kiểm tra hệ thống trong gói HBM4 của Nvidia. Trong khi đó, SK hynix đã thiết lập được khung sản xuất hàng loạt HBM4 và đang cung cấp các mẫu sản phẩm có trả phí cho Nvidia.