Các hệ thống trí tuệ nhân tạo Trung Quốc đang tiến gần đến mức độ “rủi ro biên giới” tương tự như các đối tác Mỹ, theo một nghiên cứu.
Những tiến bộ gần đây trong khả năng của các mô hình AI từ DeepSeek và các công ty Trung Quốc khác đã làm tăng khả năng các hệ thống này bị kẻ xấu lạm dụng hoặc thoát khỏi sự kiểm soát của con người, theo Concordia AI – một công ty tư vấn có trụ sở tại Bắc Kinh tập trung vào an toàn AI tại Trung Quốc.
Khi các mô hình AI trở nên mạnh mẽ hơn, rủi ro biên giới của chúng – tức tiềm năng gây nguy hiểm cho an toàn công cộng và ổn định xã hội – đã khiến các chuyên gia lo ngại về những hậu quả thảm khốc có thể xảy ra, bao gồm cả sự diệt vong của nhân loại.
Đánh giá của Concordia AI, dựa trên phân tích 50 mô hình AI hàng đầu và được chia sẻ độc quyền với Post, cho thấy các mô hình Trung Quốc đã tham gia cùng các mô hình Mỹ trong việc đẩy giới hạn những rủi ro như vậy.
“Chúng tôi hy vọng những phát hiện của mình có thể hỗ trợ các công ty này khi họ cải thiện độ an toàn cho mô hình của mình,” Fang Liang, người đứng đầu bộ phận an toàn và quản trị AI tại Trung Quốc của công ty tư vấn, cho biết.
Mô hình R1 của startup AI Trung Quốc DeepSeek đạt điểm rủi ro cao nhất về tấn công mạng trong đánh giá của Concordia AI. Ảnh: Zuma Press Wire/TNS
Mô hình R1 chủ lực của startup AI Trung Quốc DeepSeek, được cập nhật lần cuối vào tháng 5, được xác định có điểm rủi ro cao nhất trong việc thực hiện các cuộc tấn công mạng.