Microsoft đang nhấn mạnh với các nhà đầu tư rằng các đơn vị xử lý đồ họa là nguyên liệu thô quan trọng cho hoạt động kinh doanh trên nền tảng đám mây đang phát triển nhanh chóng của hãng. Trong báo cáo thường niên được phát hành vào cuối ngày thứ Năm (27/7), nhà sản xuất phần mềm đã thêm ngôn ngữ về GPU vào một yếu tố rủi ro đối với sự cố ngừng hoạt động có thể phát sinh nếu họ không thể có được cơ sở hạ tầng cần thiết.
Ngôn ngữ này phản ánh nhu cầu ngày càng tăng tại các công ty công nghệ hàng đầu đối với phần cứng cần thiết để cung cấp khả năng trí tuệ nhân tạo cho các doanh nghiệp nhỏ hơn.
Trí tuệ nhân tạo (AI), cụ thể là trí tuệ nhân tạo bao gồm việc tạo văn bản, lời nói, video và hình ảnh giống con người để phản hồi đầu vào của mọi người, đã trở nên phổ biến hơn trong năm nay, sau khi chatbot ChatGPT của công ty khởi nghiệp OpenAI trở nên nổi tiếng. Điều đó đã mang lại lợi ích cho các nhà sản xuất GPU như Nvidia và ở mức độ nhỏ hơn là AMD.
“Các trung tâm dữ liệu của chúng tôi phụ thuộc vào sự sẵn có của đất được phép và có thể xây dựng, năng lượng có thể dự đoán được, nguồn cung cấp mạng và máy chủ, bao gồm cả bộ xử lý đồ họa ('GPU') và các thành phần khác,” Microsoft cho biết trong báo cáo cho năm tài chính 2023, kết thúc vào ngày 30 tháng 6 vừa qua.
Đó là một trong ba đoạn đề cập đến GPU trong hồ sơ đã viết. Họ đã không được đề cập một lần trong báo cáo của năm trước. Ngôn ngữ như vậy đã không xuất hiện trong các báo cáo thường niên gần đây của các công ty công nghệ lớn khác, chẳng hạn như Alphabet, Apple, Amazon và Meta.
OpenAI dựa vào đám mây Azure của Microsoft để thực hiện các thuật toán cho ChatGPT và các mô hình AI khác nhau, như một phần của quan hệ đối tác phức tạp. Microsoft cũng đã bắt đầu sử dụng các mô hình của OpenAI để nâng cao các sản phẩm hiện có, chẳng hạn như các ứng dụng Outlook và Word cũng như công cụ tìm kiếm Bing, với AI tổng quát.
Những nỗ lực đó và sự quan tâm đến ChatGPT đã khiến Microsoft tìm kiếm nhiều GPU hơn dự kiến.
Jensen Huang, Giám đốc điều hành của Nvidia, cho biết tại hội nghị nhà phát triển GTC của công ty vào tháng 3: “Tôi rất vui khi Microsoft thông báo Azure đang mở các bản xem trước riêng tư cho siêu máy tính AI H100 của họ.
Microsoft đã bắt đầu tìm kiếm bên ngoài các trung tâm dữ liệu của riêng mình để đảm bảo đủ dung lượng, ký thỏa thuận với CoreWeave do Nvidia hậu thuẫn, cho thuê GPU cho các nhà phát triển bên thứ ba dưới dạng dịch vụ đám mây.
Đồng thời, Microsoft đã dành nhiều năm để xây dựng bộ xử lý AI tùy chỉnh của riêng mình. Tất cả sự chú ý vào ChatGPT đã khiến Microsoft tăng tốc triển khai chip của mình, The Information đưa tin vào tháng 4, trích dẫn các nguồn giấu tên. Alphabet, Amazon và Meta đều đã công bố chip AI của riêng họ trong thập kỷ qua.
Microsoft dự kiến sẽ tăng chi tiêu vốn liên tục trong quý này, để trả tiền cho các trung tâm dữ liệu, bộ xử lý trung tâm tiêu chuẩn, phần cứng mạng và GPU, Amy Hood, giám đốc tài chính của công ty, cho biết hôm thứ Ba trong một cuộc gọi hội nghị với các nhà phân tích. Cô ấy nói: “Đó là sự gia tăng tổng thể của khả năng tăng tốc của công suất tổng thể".