GPU là thành phần cơ bản trong việc phát triển các mô hình ngôn ngữ lớn làm nền tảng cho các công cụ trí tuệ nhân tạo (AI) gây sốt như ChatGPT.
H100 là một bộ xử lý thúc đẩy cuộc cách mạng AI tổng quát, cung cấp cho các mô hình ngôn ngữ lớn như ChatGPT sức mạnh tính toán cần thiết để xử lý hàng tỷ thông số định hình đầu ra. Không có chúng, sự phát triển của các mô hình AI có nguy cơ bị đình trệ. Đó là lý do tại sao các tập đoàn công nghệ điên cuồng "săn" bộ vi xử lý H100 trước nguy cơ thiếu hụt nguồn cung.
Nvidia đang lên kế hoạch tăng gấp 3-4 lần sản lượng H100, tương đương 1,5-2 triệu chip, để phục vụ "cuộc cách mạng AI". Nvidia dự kiến xuất xưởng 1,5-2 triệu chip H100 vào năm 2024, tăng vài lần so với mục tiêu sản xuất 500.000 chiếc năm nay. Hãng cũng dự đoán nhu cầu chip máy chủ AI sẽ tăng gần 50% mỗi năm trong 5 năm tới.
Trong báo cáo tài chính quý I/2023, CEO Jensen Huang xác nhận công ty đang tăng cường nguồn cung để đáp ứng nhu cầu chip H100 của thị trường. H100, GPU trị giá 40.000 USD, đang được săn lùng nhiều nhất trong cơn sốt AI. Đây là thành phần quan trọng trong việc phát triển các mô hình ngôn ngữ lớn.
Vốn hóa thị trường của Nvidia đã tăng vọt lên hơn 1.000 tỉ USD vào tháng 5 khi các công ty AI đổ xô mua GPU. Tầm quan trọng của GPU với sự bùng nổ AI đã dẫn đến việc các công ty và quốc gia chạy đua để mua thiết bị này. Đầu tháng 8, tờ Financial Times đưa tin rằng Ả Rập Saudi và UAE đã mua hàng ngàn H100 của Nvidia.
Các nhà đầu tư mạo hiểm giàu có đua nhau mua GPU cho các công ty khởi nghiệp trong danh mục đầu tư đang tìm cách xây dựng các mô hình AI riêng được đào tạo dựa trên dữ liệu mà họ sử dụng.
Vào tháng 6, Reuters đưa tin GPU của Nvidia đã trở nên phổ biến đến mức các công ty Trung Quốc sẵn sàng mua chúng thông qua các thị trường ngầm ở Hồng Kông, khi các quy định xuất khẩu của Mỹ cấm Nvidia bán GPU cao cấp nhất của họ cho Trung Quốc.
Trong quý 1/2023, Nvidia công bố doanh thu tăng vọt 19% lên 7,2 tỉ USD so với quý trước. Giám đốc điều hành Nvidia - Jensen Huang cho biết công ty đang "tăng đáng kể nguồn cung để đáp ứng nhu cầu ngày càng tăng" với các sản phẩm như H100.
Foxconn cũng dự báo nhu cầu về máy chủ AI sẽ tăng mạnh trong những năm tới. Trong khi đó, Lenovo nói doanh thu của công ty trong quý II đã giảm 80% vì thiếu bộ xử lý AI. Nhiều nhà cung cấp dịch vụ đám mây (CSP) đã chuyển nhu cầu từ máy tính truyền thống sang máy chủ AI nhưng nguồn cung bị hạn chế. Tại Mỹ, các nhà cung cấp dịch vụ cloud như Microsoft, Amazon và Google đang chuyển trọng tâm sang xây dựng cơ sở hạ tầng AI.
Bên cạnh tình trạng thiếu chip Nvidia, các nhà phân tích cũng chỉ ra một điểm nghẽn khác trong chuỗi cung ứng đang làm chậm tiến trình phát triển AI. Brady Wang, nhà phân tích của Counterpoint, nói: "Chuỗi cung ứng đang gặp vấn đề liên quan đến năng lực đóng gói bao bì tiên tiến và bộ nhớ băng thông cao (HBM). Cả hai đang bị hạn chế về sản lượng".
TSMC có kế hoạch tăng gấp đôi công suất cho CoWoS, công nghệ đóng gói tiên tiến cần thiết để sản xuất H100. Tuy nhiên, công ty cảnh báo tình trạng thiếu hụt sẽ kéo dài đến cuối 2024.