Vào cuối bài phát biểu quan trọng không có kịch bản kéo dài hai giờ của CEO Nvidia Jensen Huang vào thứ Ba tuần qua, thông điệp của ông rất rõ ràng: Hãy mua những con chip nhanh nhất mà công ty sản xuất.
Phát biểu tại hội nghị GTC của Nvidia, CEO Huang Jensen cho biết những thắc mắc của khách hàng về chi phí và lợi tức đầu tư của bộ xử lý đồ họa hoặc GPU của công ty sẽ biến mất với những con chip nhanh hơn có thể được phân tích kỹ thuật số và sử dụng để phục vụ trí tuệ nhân tạo cho hàng triệu người cùng một lúc.
"Trong 10 năm tới, vì chúng ta có thể thấy hiệu suất được cải thiện đáng kể, tốc độ là hệ thống giảm chi phí tốt nhất", Huang cho biết trong một cuộc họp với các nhà báo ngay sau bài phát biểu quan trọng của mình tại GTC.
Công ty đã dành 10 phút trong bài phát biểu của Huang để giải thích về mặt kinh tế của những con chip nhanh hơn dành cho các nhà cung cấp dịch vụ đám mây, hoàn thành với việc Huang tính toán chi phí cho mỗi mã thông báo của từng con chip, một thước đo về chi phí để tạo ra một đơn vị đầu ra AI.
Huang nói với các phóng viên rằng ông đã trình bày phép toán này vì đó là điều mà các công ty AI và đám mây siêu quy mô đang nghĩ đến.
Nvidia cho biết hệ thống Blackwell Ultra của công ty, ra mắt trong năm nay, có thể cung cấp cho các trung tâm dữ liệu doanh thu cao gấp 50 lần so với hệ thống Hopper vì nó phục vụ AI cho nhiều người dùng nhanh hơn rất nhiều.
Các nhà đầu tư lo lắng về việc liệu bốn nhà cung cấp dịch vụ đám mây lớn — Microsoft, Google, Amazon và Oracle — có thể làm chậm tốc độ chi tiêu vốn khủng khiếp của họ tập trung vào các chip AI đắt tiền hay không. Nvidia không tiết lộ giá cho các chip AI của mình, nhưng các nhà phân tích cho biết Blackwell có thể có giá 40.000 đô la cho mỗi GPU.
Hiện tại, bốn nhà cung cấp dịch vụ đám mây lớn nhất đã mua 3,6 triệu GPU Blackwell, theo quy ước mới của Nvidia, tính mỗi Blackwell là hai GPU. Nvidia cho biết hôm thứ Ba rằng con số này tăng so với 1,3 triệu GPU Hopper, tiền thân của Blackwell.
Huang cho biết công ty đã quyết định công bố lộ trình cho các chip Rubin Next năm 2027 và Feynman AI năm 2028, vì khách hàng đám mây đã lên kế hoạch cho các trung tâm dữ liệu đắt tiền và muốn biết những nét chính trong kế hoạch của Nvidia.
“Chúng tôi biết ngay lúc này, khi chúng ta đang nói chuyện, trong vài năm nữa, cơ sở hạ tầng AI trị giá hàng trăm tỷ đô la” sẽ được xây dựng, Huang cho biết. “Bạn đã có ngân sách được phê duyệt. Bạn đã có điện được phê duyệt. Bạn đã có đất đai”.
Huang bác bỏ quan điểm cho rằng chip tùy chỉnh từ các nhà cung cấp dịch vụ đám mây có thể thách thức GPU của Nvidia, lập luận rằng chúng không đủ linh hoạt cho các thuật toán AI chuyển động nhanh. Ông cũng bày tỏ sự nghi ngờ rằng nhiều chip AI tùy chỉnh mới được công bố gần đây, được gọi trong ngành là ASIC, sẽ có thể đưa ra thị trường.
“Rất nhiều ASIC bị hủy bỏ”, Huang cho biết. “ASIC vẫn phải tốt hơn loại tốt nhất”.
Huang cho biết trọng tâm của ông là đảm bảo các dự án lớn đó sử dụng các hệ thống Nvidia mới nhất và tuyệt vời nhất.
“Vì vậy, câu hỏi đặt ra là, bạn muốn gì với số tiền 100 tỷ đô la?” Huang cho biết.