Đơn vị đám mây AWS của Amazon đã công bố các chip mới để khách hàng xây dựng và chạy các ứng dụng trí tuệ nhân tạo, cũng như có kế hoạch cung cấp quyền truy cập vào các chip mới nhất của Nvidia.
Amazon Web Services đang cố gắng trở thành nhà cung cấp đám mây với nhiều tùy chọn tiết kiệm chi phí. Tuy nhiên, nó sẽ không chỉ bán các sản phẩm giá rẻ mang nhãn hiệu Amazon. Cũng giống như trên thị trường bán lẻ trực tuyến của mình, đám mây của Amazon sẽ có các sản phẩm hàng đầu từ các nhà cung cấp khác, bao gồm cả GPU được săn đón nhiều từ nhà sản xuất chip AI hàng đầu Nvidia.
Nhu cầu về GPU Nvidia đã tăng vọt kể từ khi công ty khởi nghiệp OpenAI phát hành chatbot ChatGPT vào năm ngoái, khiến mọi người phải kinh ngạc với khả năng tóm tắt thông tin và soạn văn bản giống con người. Nó dẫn đến sự thiếu hụt chip của Nvidia khi các công ty chạy đua để kết hợp các công nghệ AI tổng hợp tương tự vào sản phẩm của họ.
Cách tiếp cận theo hai hướng của Amazon là vừa xây dựng chip của riêng mình vừa cho phép khách hàng truy cập vào chip mới nhất của Nvidia có thể sẽ giúp hãng này chống lại đối thủ cạnh tranh điện toán đám mây hàng đầu, Microsoft. Đầu tháng này, Microsoft đã thực hiện một cách tiếp cận tương tự bằng cách tiết lộ chip AI đầu tiên của mình, Maia 100, đồng thời cho biết đám mây Azure sẽ có GPU Nvidia H200.
Thông báo được đưa ra tại hội nghị Reinvent ở Las Vegas vào thứ ba (28/11). Cụ thể, AWS cho biết họ sẽ cung cấp quyền truy cập vào bộ xử lý đồ họa H200 AI mới nhất của Nvidia. Nó cũng công bố chip trí tuệ nhân tạo Trainium2 mới và bộ xử lý Graviton4 đa năng.
GPU Nvidia mới là bản nâng cấp từ H100, con chip mà OpenAI sử dụng để đào tạo mô hình ngôn ngữ lớn tiên tiến nhất của hãng, GPT-4. Các công ty lớn, công ty khởi nghiệp và cơ quan chính phủ đều đang cạnh tranh để có được nguồn cung chip hạn chế, đồng nghĩa với việc nhu cầu thuê chúng từ các nhà cung cấp đám mây như Amazon cũng rất cao. Nvidia cho biết H200 sẽ tạo ra sản lượng nhanh gần gấp đôi so với H100.
Các chip Trainium2 của Amazon được thiết kế để đào tạo các mô hình AI, bao gồm cả loại mà các chatbot AI như ChatGPT của OpenAI và các đối thủ cạnh tranh của nó đang chạy. Amazon cho biết Startup Databricks và Anthropic do Amazon hậu thuẫn, một đối thủ cạnh tranh của OpenAI, có kế hoạch xây dựng các mô hình với chip Trainium2 mới, sẽ có hiệu suất tốt hơn bốn lần so với mô hình ban đầu.
Bộ xử lý Graviton4 dựa trên kiến trúc Arm và tiêu thụ ít năng lượng hơn so với chip của Intel hoặc AMD. Graviton4 hứa hẹn hiệu suất tốt hơn 30% so với chip Graviton3 hiện có, cho phép những gì AWS cho biết là sản lượng tốt hơn ở mức giá. Lạm phát cao hơn bình thường, tạo cảm hứng cho các ngân hàng trung ương tăng lãi suất. Các tổ chức muốn tiếp tục sử dụng AWS nhưng giảm chi phí đám mây để đáp ứng tốt hơn nền kinh tế có thể cân nhắc chuyển sang Graviton.
Amazon cho biết hơn 50.000 khách hàng AWS đã sử dụng chip Graviton.
Cuối cùng, như một phần trong mối quan hệ sâu sắc hơn với Nvidia, AWS cho biết họ sẽ vận hành hơn 16.000 Siêu chip Nvidia GH200 Grace Hopper, chứa GPU Nvidia và bộ xử lý đa năng dựa trên Arm của Nvidia. Nhóm nghiên cứu và phát triển của Nvidia cũng như khách hàng của AWS đều có thể tận dụng cơ sở hạ tầng này.
AWS đã ra mắt hơn 200 sản phẩm đám mây kể từ năm 2006, khi hãng này phát hành dịch vụ EC2 và S3 để tính toán và lưu trữ dữ liệu. Không phải tất cả đều là hit. Một số không có bản cập nhật trong một thời gian dài và một số hiếm bị ngừng cung cấp, giải phóng Amazon để phân bổ lại tài nguyên. Tuy nhiên, công ty vẫn tiếp tục đầu tư vào các chương trình Graviton và Trainium, cho thấy Amazon đã cảm nhận được nhu cầu.
AWS không công bố ngày phát hành cho các phiên bản máy ảo có chip Nvidia H200 cũng như các phiên bản dựa trên silicon Trainium2. Khách hàng có thể bắt đầu thử nghiệm các phiên bản máy ảo Graviton4 ngay bây giờ trước khi chúng có sẵn trên thị trường trong vài tháng tới.