Theo Microsoft, chip Maia của hãng này được sử dụng cho các hệ thống đào tạo AI, có khả năng cạnh tranh với phiên bản xử lý đồ họa AI nổi tiếng của Nvidia. Trong khi đó, chip Cobalt nhằm vào các tác vụ tính toán thông thường và có thể cạnh tranh với bộ xử lý Intel.
Maia 100 được Microsoft giới thiệu là "một trong những mẫu chip tiên tiến nhất" với 105 tỷ bóng bán dẫn. Microsoft đang tiếp tục thử nghiệm Maia 100 trong việc đáp ứng khả năng huấn luyện công cụ trò chuyện (chatbot) AI trên công cụ tìm kiếm Copilot - tên mới của Bing Chat, trợ lý mã hóa GitHub Copilot và GPT-3.5-Turbo - một mô hình ngôn ngữ lớn của OpenAI do Microsoft hỗ trợ phát triển.
OpenAI đã cung cấp cho các mô hình ngôn ngữ của mình một lượng lớn thông tin từ Internet và chúng có thể tạo email, tóm tắt tài liệu và trả lời các câu hỏi bằng một vài lời hướng dẫn của con người. Microsoft và OpenAI đang nỗ lực thu hút doanh nghiệp sử dụng các mô hình AI tạo sinh.
Tháng trước, Giám đốc điều hành (CEO) Microsoft Satya Nadella tuyên bố lĩnh vực này đang tăng trưởng mạnh mẽ. Riêng GitHub Copilot đã tăng 40% trong quý III/2023 so với quý trước đó.
Ông nêu rõ: "Chúng tôi có hơn một triệu người dùng Copilot trả phí ở hơn 37.000 tổ chức và doanh nghiệp. Con số này đang được mở rộng đáng kể, đặc biệt bên ngoài nước Mỹ".
Bên cạnh Maia, phiên bản chip Cobalt đang được Microsoft thử nghiệm trên ứng dụng Teams và dịch vụ Cơ sở dữ liệu Azure SQL. Loại chip mới này dựa trên cấu tạo của ARM, 64-bit, chứa 128 lõi điện toán, hoạt động hiệu suất cao cùng khả năng giảm 40% mức tiêu thụ điện năng so với các chip ARM khác mà các hệ thống đám mây Azure đang sử dụng. Cobalt hiện hỗ trợ việc xử lý các hệ thống phần mềm đám mây gồm Microsoft Teams và Azure SQL.
Microsoft hiện đang thử nghiệm ứng dụng Teams và dịch vụ Cơ sở dữ liệu Azure SQL trên Cobalt. Microsoft cho biết cho đến nay, chúng đã hoạt động tốt hơn 40% so với các chip dựa trên Arm hiện có của Azure, đến từ công ty khởi nghiệp Ampere.
Trong một năm rưỡi qua, khi giá và lãi suất tăng cao hơn, nhiều công ty đã tìm ra các phương pháp giúp chi tiêu trên nền tảng đám mây của họ. Phó chủ tịch Dave Brown cho biết tất cả 100 khách hàng hàng đầu của AWS hiện đang sử dụng chip dựa trên Arm, điều này có thể mang lại sự cải thiện hiệu suất về giá 40%.
Tuy nhiên, việc chuyển từ GPU sang chip AI AWS Trainium có thể phức tạp hơn việc chuyển từ Intel Xeons sang Graviton. Mỗi mô hình AI đều có những đặc điểm riêng, ông Dave Brown cho biết. Nhiều người đã làm việc để tạo ra nhiều công cụ khác nhau hoạt động trên Arm vì sự phổ biến của chúng trong các thiết bị di động và điều đó không hoàn toàn đúng dành cho AI.
Bà Rani Borkar nói: “Chúng tôi đã chia sẻ những thông số kỹ thuật này với hệ sinh thái và với nhiều đối tác trong hệ sinh thái, điều này mang lại lợi ích cho tất cả khách hàng Azure của chúng tôi”.
Borkar cho biết bà không có thông tin chi tiết về hiệu suất của Maia so với các lựa chọn thay thế như H100 của Nvidia. Được biết, mới đây Nvidia cũng tiết lộ con chip H200 của họ sẽ bắt đầu xuất xưởng vào quý 2 năm 2024.