Hãng sản xuất chip khổng lồ Nvidia của Mỹ có thể sẽ công bố một kiến trúc chip suy luận trí tuệ nhân tạo mới được xây dựng dựa trên bộ nhớ truy cập ngẫu nhiên tĩnh (SRAM) tích hợp trên chip tại hội nghị Nvidia GTC 2026 ở San Jose, California vào thứ Hai, làm dấy lên câu hỏi liệu thiết kế này có thể định hình lại cấu trúc của thị trường bộ nhớ AI hay không.
Theo các nguồn tin trong ngành hôm Chủ nhật, kiến trúc dựa trên SRAM được đề xuất dự kiến sẽ có cách tiếp cận khác so với các thiết kế GPU hiện đang được sử dụng trong các trung tâm dữ liệu AI. Các GPU hiện nay xử lý các tập dữ liệu khổng lồ bằng cách gắn nhiều chồng bộ nhớ băng thông cao (HBM) bên cạnh bộ xử lý, cho phép xử lý khối lượng dữ liệu lớn với tốc độ cực cao.
Thiết kế tập trung vào SRAM sẽ đặt các khối SRAM tương đối lớn bên trong chip, giảm thiểu việc di chuyển dữ liệu và có khả năng cải thiện độ trễ xử lý.
Tuy nhiên, phương pháp này cũng có những đánh đổi trong thiết kế. SRAM lớn hơn và đắt hơn đáng kể so với bộ nhớ truy cập ngẫu nhiên động (DRAM), khiến việc triển khai ở dung lượng lớn trở nên khó khăn. Theo ước tính của ngành, với cùng dung lượng, các ô SRAM yêu cầu diện tích silicon gấp khoảng năm đến mười lần so với các ô DRAM.
Do đó, SRAM theo truyền thống được sử dụng làm bộ nhớ đệm hoặc bộ nhớ tạm trong bộ xử lý chứ không phải là bộ nhớ chính. Ngược lại, HBM được thiết kế để cung cấp băng thông bộ nhớ cực cao và đã trở thành một thành phần quan trọng trong đào tạo AI và khối lượng công việc trung tâm dữ liệu.
Một số nhà quan sát đã bày tỏ lo ngại rằng việc sử dụng rộng rãi SRAM có thể làm suy yếu nhu cầu đối với HBM và các công nghệ bộ nhớ chính khác. Tuy nhiên, nhiều chuyên gia cho rằng khả năng SRAM trực tiếp thay thế HBM vẫn thấp vì hai công nghệ này phục vụ các vai trò khác nhau về cơ bản.
“Việc coi SRAM là sự thay thế cho HBM có phần hơi phóng đại,” một nguồn tin trong ngành cho biết với điều kiện giấu tên. “SRAM theo truyền thống được sử dụng như một bộ nhớ đệm dung lượng nhỏ nhưng đắt tiền, nằm cạnh bộ xử lý.”
Nguồn tin cho biết, những hạn chế về cấu trúc khiến SRAM khó có thể thay thế bộ nhớ dung lượng lớn.
“Để đạt được cùng dung lượng, SRAM sẽ cần diện tích silicon gấp khoảng 5 đến 10 lần so với DRAM,” nguồn tin cho biết. “Nó có thể hữu ích trong một số bộ phận có độ trễ cực thấp của chip AI, nhưng việc mở rộng nó như một giải pháp bộ nhớ đa năng có thể vẫn bị hạn chế.”
“Trong tương lai gần, HBM sẽ tiếp tục đóng vai trò là bộ nhớ gần chủ chốt hỗ trợ các hệ thống huấn luyện và suy luận AI quy mô lớn,” nguồn tin nói thêm.
Các nhà phân tích thị trường cũng cho rằng kiến trúc dựa trên SRAM có nhiều khả năng bổ sung cho các công nghệ bộ nhớ hiện có hơn là thay thế chúng.
Chae Min-sook, một nhà phân tích tại Korea Investment & Securities, cho biết việc giới thiệu các kiến trúc tập trung vào SRAM nên được hiểu là một lựa chọn bổ sung cho các khối lượng công việc cụ thể hơn là một chiến lược để thay thế HBM hoặc DRAM. “Việc xem đây là giải pháp nhắm đến một số khối lượng công việc trung tâm dữ liệu có độ trễ cực thấp hoặc các ứng dụng biên sẽ phù hợp hơn,” bà nói.
“Các máy chủ huấn luyện mô hình quy mô lớn và máy chủ suy luận tổng quát vẫn sẽ dựa vào HBM và DRAM làm bộ nhớ chính,” bà Chae cho biết. “Khi điện toán AI phát triển, ngành công nghiệp có khả năng sẽ chuyển sang cấu trúc phân cấp bộ nhớ nhiều lớp hơn, bao gồm SRAM, HBM và DRAM.”
Các nhà nghiên cứu cũng nhận thấy sự gián đoạn hạn chế trong ngắn hạn đối với hệ thống bộ nhớ hiện tại. Lee Jong-hwan, giáo sư kỹ thuật bán dẫn hệ thống tại Đại học Sangmyung, cho biết bất kỳ sự thay đổi cấu trúc nào cũng có thể diễn ra dần dần chứ không đột ngột. “Ngay cả khi có những thay đổi về kiến trúc, chúng cũng khó có thể gây ra sự gián đoạn ngay lập tức,” ông Lee nói. “Các công ty như Samsung Electronics và SK hynix thống trị thị trường bộ nhớ toàn cầu, có nghĩa là bất kỳ sự chuyển đổi công nghệ nào cũng có thể diễn ra với tốc độ được kiểm soát.” “SRAM vẫn chỉ là một loại bộ nhớ, vì vậy từ góc nhìn của các nhà sản xuất bộ nhớ, nó không nhất thiết gây ra vấn đề lớn,” giáo sư nói thêm.