SK hynix sẽ giới thiệu các mẫu chip bộ nhớ băng thông cao (HBM) tiên tiến nhất của mình dành cho bộ xử lý trí tuệ nhân tạo (AI) tại CES 2025 sắp tới, với các giám đốc điều hành hàng đầu của nhà sản xuất chip này sẽ quảng bá năng lực của công ty với tư cách là "nhà cung cấp bộ nhớ AI toàn diện" cho khách tham quan.
Theo SK hynix vào thứ sáu (3/1), Tổng giám đốc điều hành Kwak Noh-jung, Giám đốc tiếp thị Kim Ju-seon và một số giám đốc điều hành cấp C khác sẽ tham dự CES 2025 dự kiến diễn ra từ ngày 7 đến ngày 10 tháng 1 tại Las Vegas.
Trong sự kiện này, công ty sẽ trưng bày các mẫu sản phẩm HBM3e 16 lớp của mình, tự hào có dung lượng cao nhất — 48 gigabyte — và cấu hình ngăn xếp cao nhất với 16 lớp.
SK hynix đã tiết lộ quá trình phát triển chip mới nhất lần đầu tiên trên thế giới vào tháng 11 và thể hiện sự tự tin rằng năng suất của chip sẽ tương đương với HBM3e 12 lớp, mẫu tiên tiến nhất hiện đang được sản xuất hàng loạt.
Vào tháng 11, SK hynix đã công bố quá trình phát triển chip mới nhất của mình, đánh dấu lần đầu tiên trên thế giới và bày tỏ sự tin tưởng rằng sản lượng chip sẽ ngang bằng với HBM3e 12 lớp, mẫu chip tiên tiến nhất hiện đang được sản xuất hàng loạt.
HBM3e 16 lớp được sản xuất thông qua quy trình đúc chảy lại khối lượng tiên tiến, cho phép tạo lớp phủ 16 lớp trong khi vẫn kiểm soát hiệu quả độ cong vênh của chip và tối đa hóa hiệu suất nhiệt. Công ty cho biết họ sẽ có thể tạo ra lớp phủ 20 lớp mà không cần liên kết lai, một công nghệ thế hệ tiếp theo để liên kết các chip xếp chồng.
Cùng với HBM3e, điều đang thu hút sự chú ý là liệu có cái nhìn thoáng qua về HBM4 thế hệ tiếp theo của công ty hay không.
Trong một thông cáo báo chí, Kwak cho biết "Sự chuyển đổi do AI thúc đẩy dự kiến sẽ tăng tốc hơn nữa trong năm nay" và công ty có kế hoạch "bắt đầu sản xuất hàng loạt HBM thế hệ thứ sáu (HBM4) vào nửa cuối năm nay, dẫn đầu thị trường HBM tùy chỉnh bằng cách đáp ứng nhiều nhu cầu khác nhau của khách hàng".
HBM4 có số kênh truyền dữ liệu gấp đôi HBM3e, cho phép tốc độ truyền dữ liệu nhanh hơn và dung lượng bộ nhớ cao hơn. Nó cũng sẽ được tùy chỉnh để đáp ứng khối lượng công việc cụ thể tùy thuộc vào nhu cầu của khách hàng.
SK hynix đã và đang phát triển HBM4 với mục tiêu hoàn thiện thiết kế vào năm ngoái. Như Kwak đã lưu ý, quá trình phát triển đang tiến triển theo đúng kế hoạch của công ty và CES 2025 có thể là một sân khấu để đưa ra những gợi ý nhằm bảo vệ khách hàng trong giai đoạn đầu.
Cùng với HBM, công ty cũng sẽ giới thiệu các ổ SSD doanh nghiệp hiệu suất cao, dung lượng cao (eSSD), có nhu cầu cao do các trung tâm dữ liệu AI. Trong số các sản phẩm được trưng bày sẽ có D5-P5336 122 terabyte, được công ty con Solidigm của SK hynix phát triển vào tháng 11 năm ngoái. Ổ SSD này cung cấp dung lượng lưu trữ cao nhất hiện có, cùng với hiệu quả về điện năng và không gian vượt trội.
Đối với các dịch vụ AI trên thiết bị có sẵn cho điện thoại thông minh hoặc máy tính xách tay, SK hynix sẽ trưng bày LPCAMM2 và ZUFS 4.0, vượt trội về hiệu quả về điện năng và không gian so với các mẫu hiện có. Ngoài ra, sẽ có một mô-đun bộ nhớ dựa trên công nghệ Compute Express Link, đây là công nghệ giao diện hợp nhất kết nối nhiều thiết bị như bộ xử lý trung tâm và bộ xử lý đồ họa và cung cấp khả năng mở rộng lớn hơn.
"Trong sự kiện này, chúng tôi có kế hoạch giới thiệu nhiều giải pháp bộ nhớ AI thế hệ tiếp theo, bao gồm các sản phẩm bộ nhớ AI hàng đầu như HBM và eSSD, cũng như các giải pháp được tối ưu hóa cho AI trên thiết bị", Kim cho biết. “Thông qua đó, chúng tôi mong muốn thúc đẩy rộng rãi khả năng cạnh tranh về công nghệ của mình với tư cách là nhà cung cấp bộ nhớ AI đầy đủ.”