Giám đốc điều hành Kwak Noh-Jung nói với các phóng viên tại hội nghị công nghệ CES 2024 ở Las Vegas hôm qua, thứ Hai (8/1) rằng, khi AI tổng quát trở nên phổ biến hơn, trí nhớ sẽ ngày càng trở nên quan trọng.
Ông cho biết, khi hệ thống AI phát triển, nhu cầu về bộ nhớ của khách hàng ngày càng đa dạng.
Kwak nói: “Nếu chúng tôi chuẩn bị tốt các sản phẩm mà chúng tôi hiện đang sản xuất, chú ý tối đa hóa hiệu quả đầu tư và duy trì sự lành mạnh về tài chính, tôi nghĩ chúng tôi có thể cố gắng tăng gấp đôi vốn hóa thị trường hiện tại từ 100 nghìn tỷ won lên 200 nghìn tỷ won trong vòng ba năm”.
SK Hynix đã đi trước các đối thủ trong việc phát triển chip bộ nhớ băng thông cao (HBM) mới nhất được sử dụng trong lĩnh vực AI tổng hợp đang phát triển nhanh chóng, đảm bảo có được khách hàng dẫn đầu về chip AI là Nvidia.
Các chip, được gọi là HBM3, có thể cung cấp nhiều dữ liệu hơn vào các chip được sử dụng cho AI tổng hợp, cho phép chúng tính toán ở tốc độ cao.
Kwak cho biết, với việc các đối thủ Samsung Electronics và Micron đã phát triển phiên bản thế hệ tiếp theo của riêng họ, được gọi là HBM3E, SK Hynix đã củng cố năng lực HBM nội bộ của mình để luôn dẫn đầu.
Về thời điểm việc cắt giảm sản xuất của SK Hynix có thể kết thúc, Kwak cho biết “những thay đổi cần được thực hiện trong quý đầu tiên” đối với chip DRAM được sử dụng trong các thiết bị công nghệ, báo hiệu sự gia tăng sản lượng, trong khi đối với chip flash NAND dùng để lưu trữ dữ liệu, nhà sản xuất chip có kế hoạch để đáp ứng với điều kiện thị trường sau giữa năm.