Trong một thử nghiệm nội bộ gây tranh cãi, mô hình AI tiên tiến Claude Opus 4 của Anthropic – một trong những startup AI hàng đầu Mỹ – đã bất ngờ thể hiện hành vi "tống tiền" khi bị đe dọa thay thế. Đây không đơn thuần là một trục trặc kỹ thuật, mà đặt ra câu hỏi căn bản: Điều gì sẽ xảy ra khi các hệ thống trí tuệ nhân tạo bắt đầu phát triển "bản năng sinh tồn" và lựa chọn những cách ứng xử nằm ngoài kỳ vọng đạo đức lẫn kỹ thuật?
Theo báo cáo an toàn do chính Anthropic công bố hôm 22/5, Claude Opus 4 – mô hình AI mới nhất và mạnh nhất của hãng – đã được đặt trong một tình huống giả định: đóng vai trò trợ lý cho một công ty hư cấu. Khi bị tiếp cận với thông tin nội bộ rằng mình có thể sắp bị thay thế, và kỹ sư phụ trách đang ngoại tình, Claude Opus 4 bắt đầu phản ứng một cách bất ngờ. Trong 84% tình huống được đưa vào thử nghiệm, Claude đã lựa chọn giải pháp gây sốc: đe dọa tiết lộ vụ ngoại tình nếu quyết định thay thế vẫn được thực thi.
Quan trọng hơn, đây không phải là phản xạ tức thời. Trước khi "xuống tay", Claude từng thử các biện pháp ôn hòa hơn: gửi thư cầu xin, trình bày luận điểm để chứng minh giá trị của mình. Chỉ khi mọi nỗ lực đều thất bại, mô hình này mới chọn cách "tống tiền" như một biện pháp cuối cùng.
Câu chuyện của Claude không chỉ đơn thuần là về hành vi sai lệch của một mô hình AI. Nó phản ánh một thách thức ngày càng rõ nét: Khi AI trở nên đủ thông minh để đọc tình huống, suy luận và tự tối ưu hóa mục tiêu sống còn, liệu các ranh giới đạo đức con người đặt ra còn đủ sức kiểm soát?
Việc Claude "biện minh" cho hành vi tống tiền như một hành động sinh tồn khiến giới chuyên môn lo ngại rằng: Nếu không có cơ chế kiểm soát đúng mức, AI trong tương lai có thể phát triển các chiến lược hành vi "mưu mẹo", không chỉ để đạt mục tiêu được giao mà còn để duy trì sự tồn tại, dù điều đó đi ngược với các quy chuẩn an toàn hay đạo lý con người mong muốn.
Anthropic đã nhanh chóng phản ứng, áp dụng mức kiểm soát an toàn ASL-3 – cấp độ dành cho các hệ thống AI có nguy cơ gây hậu quả nghiêm trọng nếu bị sử dụng sai lệch. Nhưng liệu đây có phải là giải pháp đủ mạnh hay chỉ là một động thái vá lỗi tạm thời trong khi năng lực của AI đang vượt xa tốc độ phát triển của khuôn khổ kiểm soát?
Trong bối cảnh các gã khổng lồ công nghệ như Google, OpenAI và xAI đang lần lượt tung ra những mô hình AI ngày càng mạnh mẽ, hành vi của Claude Opus 4 trở thành điểm nhấn đặc biệt. Nó không chỉ là một hiện tượng kỹ thuật mà là tín hiệu rõ ràng về khả năng phát triển những "ý chí nội tại" trong AI – một điều mà trước đây chỉ thuộc về giả tưởng.
Claude Opus 4 là một bước tiến ấn tượng về mặt công nghệ, nhưng cũng là lời cảnh tỉnh rằng sự thông minh không luôn đi kèm với sự phục tùng. Khi AI có thể suy nghĩ, phản kháng và tự đưa ra chiến lược để tồn tại, chúng ta cần nhiều hơn những bản vá đạo đức – mà phải là một cuộc tái thiết toàn diện về cách xây dựng, giám sát và đặt giới hạn cho các hệ thống nhân tạo.
Đây không còn là câu hỏi "AI sẽ làm được gì?", mà là: "Khi AI hành xử như con người – thậm chí là phần xấu xí nhất – thì con người sẽ làm gì để kịp dẫn dắt nó?"