Các card đồ họa tiên tiến nhất của Nvidia đang được bán với giá hơn 40.000 đô la trên eBay, do nhu cầu tăng vọt đối với các chip cần thiết để đào tạo và triển khai phần mềm trí tuệ nhân tạo.
Giá cho bộ vi xử lý H100 của Nvidia đã được nhà tiên phong về trò chơi 3D và cựu giám đốc công nghệ tư vấn Meta John Carmack ghi nhận trên Twitter. Vào thứ Sáu (14/4), ít nhất tám chiếc H100 đã được liệt kê trên eBay với mức giá từ 39.995 đô la đến gần 46.000 đô la. Một số nhà bán lẻ đã cung cấp nó trong quá khứ với giá khoảng 36.000 đô la.
H100, được công bố vào năm ngoái, là chip AI hàng đầu mới nhất của Nvidia, kế nhiệm A100, một con chip trị giá khoảng 10.000 đô la được gọi là “ngựa ô” cho các ứng dụng AI.
Các nhà phát triển đang sử dụng H100 để xây dựng cái gọi là mô hình ngôn ngữ lớn (LLM), là trung tâm của các ứng dụng AI như ChatGPT của OpenAI. Việc vận hành các hệ thống đó rất tốn kém và yêu cầu các máy tính mạnh mẽ phải xử lý hàng terabyte dữ liệu trong nhiều ngày hoặc nhiều tuần tại một thời điểm. Họ cũng dựa vào sức mạnh tính toán khổng lồ để mô hình AI có thể tạo văn bản, hình ảnh hoặc dự đoán.
Việc đào tạo các mô hình AI, đặc biệt là các mô hình lớn như GPT, yêu cầu hàng trăm GPU Nvidia cao cấp hoạt động cùng nhau.
Microsoft đã chi hàng trăm triệu đô la cho hàng chục nghìn chip Nvidia A100 để giúp xây dựng ChatGPT. Nvidia kiểm soát phần lớn thị trường chip AI.
Nvidia cũng cung cấp một siêu máy tính với tám GPU hoạt động cùng nhau được gọi là DGX. Đầu năm nay, công ty đã công bố các dịch vụ mới cho phép các công ty thuê quyền truy cập vào máy tính DGX với giá 37.000 USD mỗi tháng. Với mức giá đó, hệ thống sẽ sử dụng bộ vi xử lý A100 cũ hơn của Nvidia.
Nvidia cho biết H100 là con chip đầu tiên được tối ưu hóa cho kiến trúc AI cụ thể làm nền tảng cho nhiều tiến bộ gần đây trong AI, được gọi là máy biến áp. Các chuyên gia trong ngành cho biết các chip mạnh hơn sẽ cần thiết để xây dựng các mô hình thậm chí còn lớn hơn và ngốn nhiều dữ liệu hơn so với các mô hình hiện có.