Ngày 22/5, tại Seoul, một hội nghị thượng đỉnh quy tụ 16 công ty hàng đầu về trí tuệ nhân tạo (AI) như Anthropic, Microsoft và OpenAI, cùng với đại diện từ hơn 10 quốc gia và Liên minh châu Âu, đã diễn ra nhằm thảo luận về các biện pháp đảm bảo an toàn trong phát triển AI.
Kết quả nổi bật từ cuộc họp này là sự đồng thuận về việc thiết lập một “nút tắt khẩn cấp” cho AI. Chính sách này yêu cầu các công ty dừng phát triển các mô hình AI tiên tiến nếu chúng vượt qua một ngưỡng rủi ro nhất định. Tuy nhiên, vẫn còn nhiều hoài nghi về hiệu quả thực tế của chính sách, do thỏa thuận này không có giá trị pháp lý và ngưỡng rủi ro cụ thể vẫn chưa được xác định.
Hội nghị này tiếp nối sự kiện tương tự tại Bletchley Park (Anh) vào tháng 10 năm ngoái, nơi các nhà phát triển AI đã gặp nhau nhưng không đưa ra được các cam kết hay biện pháp cụ thể.
Từ lâu, rủi ro của AI đã được cảnh báo trong cả văn học và nghiên cứu khoa học. Các nhà văn và nhà nghiên cứu lo ngại rằng AI có thể phát triển đến mức tự chủ và quay lại tấn công con người. Cảnh báo này gợi nhớ đến bộ phim "Kẻ hủy diệt" (1984), nơi một người máy từ tương lai quay về quá khứ để giết một phụ nữ vì con trai bà sẽ dẫn đầu cuộc kháng chiến chống lại hệ thống AI.
"AI mang đến cơ hội lớn để thay đổi nền kinh tế và giải quyết các vấn đề xã hội, nhưng tiềm năng này chỉ được thực hiện nếu chúng ta nhận diện và quản lý được các rủi ro tiềm tàng", Bộ trưởng Công nghệ Anh, Michelle Donelan, chia sẻ với tạp chí Fortune.
Ngay cả các công ty AI cũng nhận thức được nguy cơ từ công nghệ này. OpenAI từng cảnh báo: "Siêu trí tuệ AGI có thể bị lạm dụng, dẫn đến hậu quả nghiêm trọng và làm rối loạn xã hội. Chúng tôi không muốn ngừng phát triển AGI, mà cần tìm cách sử dụng nó một cách đúng đắn."
Hiện tại, các nỗ lực xây dựng khung pháp lý toàn cầu để quản lý AI vẫn còn manh mún. Liên Hợp Quốc đã đề xuất một khung chính sách yêu cầu các quốc gia bảo vệ nhân quyền và giám sát việc sử dụng dữ liệu cá nhân liên quan đến AI, nhưng khung này không có tính ràng buộc pháp lý.
Trong khi đó, các công ty AI đang tự thành lập các tổ chức để quản lý an toàn AI. Tuần này, Amazon và Meta đã tham gia tổ chức Frontier Model Foundation, mục tiêu thúc đẩy an toàn cho các mô hình AI tiên tiến. Thành viên sáng lập của tổ chức này bao gồm Anthropic, Google, Microsoft và OpenAI, nhưng tổ chức vẫn chưa đưa ra chính sách cụ thể nào.
'Công tắc tắt AI' là một ý tưởng đầy hứa hẹn để kiểm soát và giảm thiểu rủi ro tiềm ẩn từ công nghệ này. Sự hợp tác giữa các ông lớn công nghệ và chính phủ là điều cần thiết để triển khai hiệu quả công tắc tắt AI. Việc xác định rõ ràng và chi tiết các trường hợp cần kích hoạt công tắc tắt AI cũng như cách thức kích hoạt an toàn và hiệu quả là điều cần ưu tiên hàng đầu. Bên cạnh đó, việc giáo dục công chúng về nguy cơ và lợi ích của AI, cùng với việc tạo ra các cơ chế giám sát và quản lý phù hợp là điều cần thiết để đảm bảo rằng AI được phát triển và ứng dụng một cách có trách nhiệm và an toàn cho toàn xã hội. Sự hợp tác này sẽ góp phần tạo dựng niềm tin cho công chúng về việc AI sẽ được sử dụng một cách có đạo đức và mang lại lợi ích cho nhân loại.