Giám đốc điều hành OpenAI, Sam Altman, cho biết vào tối thứ Sáu (27/2) rằng công ty của ông đã đạt được thỏa thuận với Bộ Quốc phòng Hoa Kỳ về việc sử dụng các mô hình trí tuệ nhân tạo của mình, ngay sau khi Tổng thống Donald Trump tuyên bố chính phủ sẽ không hợp tác với đối thủ cạnh tranh trong lĩnh vực trí tuệ nhân tạo là Anthropic.
“Tối nay, chúng tôi đã đạt được thỏa thuận với Bộ Chiến tranh để triển khai các mô hình của chúng tôi trong mạng lưới bảo mật của họ,” Altman viết trong một bài đăng trên X. “Trong tất cả các cuộc tiếp xúc của chúng tôi, Bộ Chiến tranh đã thể hiện sự tôn trọng sâu sắc đối với vấn đề an ninh và mong muốn hợp tác để đạt được kết quả tốt nhất có thể.”
Bài đăng của Altman xuất hiện vào cuối một tuần đầy biến động đối với ngành công nghiệp trí tuệ nhân tạo, vốn đang trở thành tâm điểm của một cuộc tranh luận chính trị xoay quanh cách thức sử dụng các mô hình của họ. Trước đó cùng ngày, Bộ trưởng Quốc phòng Pete Hegseth đã chỉ định Anthropic là “Rủi ro chuỗi cung ứng đối với an ninh quốc gia” sau nhiều tuần đàm phán căng thẳng. Nhãn hiệu này thường được dành cho các đối thủ nước ngoài, và nó sẽ buộc các nhà cung cấp và nhà thầu của Bộ Quốc phòng phải chứng nhận rằng họ không sử dụng các mô hình của Anthropic.
Tổng thống Trump cũng chỉ đạo mọi cơ quan liên bang ở Mỹ “ngừng ngay lập tức” việc sử dụng công nghệ của Anthropic.
Anthropic là phòng thí nghiệm đầu tiên triển khai các mô hình của mình trên mạng lưới mật của Bộ Quốc phòng, và đã cố gắng đàm phán các điều khoản tiếp theo của hợp đồng với cơ quan này trước khi các cuộc đàm phán đổ vỡ. Công ty muốn được đảm bảo rằng các mô hình của họ sẽ không được sử dụng cho vũ khí tự động hoàn toàn hoặc giám sát hàng loạt người Mỹ, trong khi Bộ Quốc phòng muốn Anthropic đồng ý cho quân đội sử dụng các mô hình trong tất cả các trường hợp sử dụng hợp pháp.
Trong một bản ghi nhớ gửi cho nhân viên hôm thứ Năm, Altman nói rằng OpenAI có cùng “giới hạn đỏ” với Anthropic. Ông cho biết trong bài đăng hôm thứ Sáu rằng Bộ Quốc phòng đã đồng ý với các hạn chế này.
“Hai trong số những nguyên tắc an toàn quan trọng nhất của chúng tôi là cấm giám sát hàng loạt trong nước và trách nhiệm của con người đối với việc sử dụng vũ lực, bao gồm cả các hệ thống vũ khí tự động,” Altman viết. “Bộ Quốc phòng đồng ý với những nguyên tắc này, phản ánh chúng trong luật và chính sách, và chúng tôi đã đưa chúng vào thỏa thuận của mình.”
Hiện chưa rõ lý do tại sao Bộ Quốc phòng lại đồng ý với OpenAI mà không phải Anthropic, mặc dù các quan chức chính phủ đã chỉ trích Anthropic trong nhiều tháng vì bị cáo buộc quá quan tâm đến an toàn của AI.
Altman cho biết OpenAI sẽ xây dựng “các biện pháp bảo vệ kỹ thuật để đảm bảo các mô hình của họ hoạt động như mong muốn,” và công ty sẽ triển khai nhân sự để “hỗ trợ các mô hình của chúng tôi và đảm bảo an toàn cho chúng.”
“Chúng tôi đang yêu cầu Bộ Quốc phòng đưa ra các điều khoản tương tự cho tất cả các công ty AI, mà theo chúng tôi, mọi người đều nên sẵn sàng chấp nhận,” Altman viết. “Chúng tôi đã bày tỏ mong muốn mạnh mẽ được thấy tình hình giảm leo thang, tránh các hành động pháp lý và của chính phủ, và hướng tới các thỏa thuận hợp lý.”
Anthropic cho biết trong một tuyên bố hôm thứ Sáu rằng họ “vô cùng đau buồn” trước quyết định của Lầu Năm Góc khi dán nhãn công ty là rủi ro chuỗi cung ứng. Họ cho biết sẽ thách thức sự chỉ định này tại tòa án.