Thứ Hai tuần này (26/6), các nhà phân tích ngành công nghiệp cho biết, Samsung Electronics sẽ bắt đầu sản xuất hàng loạt chip bộ nhớ băng thông cao (HBM) cho thị trường trí tuệ nhân tạo (AI) đang bùng nổ vào nửa cuối năm nay để bắt kịp SK hynix, công ty dẫn đầu thị trường chip nhớ AI non trẻ.
Khi thị trường cho các dịch vụ AI tổng hợp tiếp tục phát triển, các chip HBM được sử dụng cho các máy chủ AI đang có được sức hút trong ngành công nghiệp chip bộ nhớ vốn đang phải chống chọi với nhu cầu sụt giảm.
Bằng cách kết nối nhiều DRAM theo chiều dọc, HBM có hiệu suất vượt trội về tốc độ xử lý dữ liệu so với DRAM thông thường. Tuy nhiên, nó đắt hơn khoảng hai đến ba lần giá của một DRAM tiêu chuẩn.
Các nhà phân tích trong ngành nhận thấy các sản phẩm này sẽ ngày càng được sử dụng nhiều hơn vì các dịch vụ AI phải được hỗ trợ bởi DRAM hiệu suất cao và dung lượng lớn để được triển khai đúng cách.
SK hynix hiện đang dẫn đầu thị trường HBM. Theo công ty theo dõi thị trường TrendForce, SK chiếm khoảng 50% thị phần vào năm 2022, trong đó Samsung chiếm 40% và Micron chiếm 10%. Thị trường HBM vẫn còn sơ khai, chiếm khoảng 1% toàn bộ thị trường DRAM.
TrendForce cho biết thị trường HBM dự kiến sẽ tăng trưởng với tốc độ tăng trưởng hàng năm lên tới 45% từ năm nay đến năm 2025. Với kỷ nguyên AI đang phát triển mạnh mẽ, nhu cầu về các sản phẩm HBM có thể tăng lên đáng kể.
Để bắt kịp người dẫn đầu giải đấu, Samsung chuẩn bị sản xuất hàng loạt chip bộ nhớ HBM3 với dung lượng 16 gigabyte và 24 gigabyte. Được biết, những sản phẩm này có tốc độ xử lý dữ liệu 6,4 Gigabit/giây (Gbps), nhanh nhất trên thị trường, giúp tăng tốc độ tính toán học tập của máy chủ.
“Chúng tôi dự định ra mắt thế hệ sản phẩm HBM3P tiếp theo vào nửa cuối năm nay với hiệu suất và công suất cao hơn đáp ứng nhu cầu của thị trường,” Kim Jae-joon, phó chủ tịch điều hành của Samsung, cho biết trong cuộc họp trực tuyến vào tháng Tư.
Bên cạnh HBM, Samsung tiếp tục giới thiệu các giải pháp bộ nhớ mới như HBM-PIM, chip nhớ băng thông cao tích hợp sức mạnh xử lý AI và CXL DRAM khắc phục hạn chế về dung lượng DRAM.
Kim Dong-won, một nhà phân tích tại KB Securities cho biết khi Samsung giới thiệu các sản phẩm mới cho thị trường HBM, họ có thể kỳ vọng sẽ tăng khả năng sinh lời trước thị trường chip nhớ đang trì trệ.
"Bắt đầu từ quý 4 năm nay, Samsung dự kiến sẽ bắt đầu cung cấp HBM3 cho các nhà sản xuất GPU ở Bắc Mỹ. Do đó, tỷ trọng doanh số HBM3 trong tổng doanh số DRAM của Samsung dự kiến sẽ tăng từ 6% vào năm 2023 lên 18% vào năm 2024," nhà phân tích cho biết.