Với việc mở cửa trở lại giao dịch vào thứ Sáu tuần qua (31/1) tại Hàn Quốc sau khi kỳ nghỉ Tết Nguyên đán kết thúc, giá cổ phiếu SK Hynix đã giảm tới 12% trong khi giá cổ phiếu của Samsung giảm tới 4%.
Hai nhà sản xuất chip nhớ đã bị ảnh hưởng vì họ cung cấp chip bộ nhớ băng thông cao (HBM) được ghép nối với bộ tăng tốc AI do Nvidia ra mắt.
Mô hình AI của DeepSeek yêu cầu ít băng thông hơn đáng kể so với mô hình do nhà sản xuất GPU của Hoa Kỳ cung cấp. Điều này đã làm dấy lên lo ngại rằng giá đơn vị của HBM sẽ giảm. SK Hynix và Samung đã thiết kế HBM của họ theo đơn đặt hàng tùy chỉnh của khách hàng.
SK Hynix có thể bị ảnh hưởng nặng nề hơn vì họ cung cấp HBM mà Nvidia sử dụng cho chip H100 sử dụng GPU cao cấp.
Trong khi đó, đối với Samsung, công ty tham gia chuỗi cung ứng HBM muộn hơn SK Hynix, sự gia tăng của các giải pháp thay thế rẻ hơn cho các bộ tăng tốc AI cao cấp như H100 do DeekSeek gây ra có thể mở ra cánh cửa để công ty này cung cấp nhiều DRAM GPU cấp thấp hơn.
DeepSeek cho biết họ sử dụng H800 cho mẫu AI V3 của mình. H800 chỉ có một nửa công suất hiệu suất của H100 và điều này là do sử dụng HBM với băng thông ít hơn.
Cả H800 và H100 đều sử dụng HBM3 80GB nhưng H800 có băng thông ít hơn 16% và tiêu thụ ít điện năng hơn. HBM với yêu cầu băng thông ít hơn dễ sản xuất hơn và do đó có mức giá rẻ hơn.
DeepSeek cũng tuyên bố rằng họ đã chi 2 đô la mỗi giờ để sử dụng H800 trên đám mây, rẻ hơn sáu lần so với khi sử dụng H100. Tuy nhiên, các nhà phân tích tin rằng công ty Trung Quốc này có thể đã sử dụng tới 4 đến 7 đô la mặc dù con số này vẫn rẻ hơn H100.
Mặc dù vậy, xu hướng chung về tăng trưởng cao của HBM dự kiến sẽ không thay đổi. Các nhà phân tích Kim Woon-ho của IBK Securities cho biết ngay cả khi các nhà cung cấp dịch vụ đám mây giảm mạnh chi tiêu cho GPU, doanh số bán đơn vị HBM vẫn tăng 40% mỗi năm cho đến năm 2026.
HBM3E 8H của Samsung đang trải qua bài kiểm tra chất lượng cuối cùng của Nvidia. Vì nhà sản xuất GPU của Hoa Kỳ đã sẵn sàng mua HBM3E 12H từ SK Hynix, Samsung cần doanh thu mới từ các khách hàng khác.
H800 đã thay đổi HBM của mình từ HBM2E sang HBM3, vì vậy các bộ tăng tốc AI cũ cần nâng cấp trong HBM của họ có thể mang đến cơ hội cho Samsung. Gã khổng lồ công nghệ hiện đang cung cấp GDDR6 cho L40, dòng bộ tăng tốc AI cấp thấp của Nvidia.