Yoshua Bengio (trái) và Max Tegmark (phải) thảo luận về sự phát triển của trí tuệ nhân tạo tổng quát trong bản ghi podcast trực tiếp của chương trình “Beyond The Valley” của CNBC tại Davos, Thụy Sĩ vào tháng 1 năm 2025.
Trí tuệ nhân tạo tổng quát được xây dựng giống như "tác nhân" có thể tỏ ra nguy hiểm vì những người tạo ra nó có thể mất quyền kiểm soát hệ thống, hai trong số những nhà khoa học AI nổi tiếng nhất thế giới đã chia sẻ.
Trong tập mới nhất của podcast "Beyond The Valley" của CNBC được phát hành vào thứ Ba, Max Tegmark, một giáo sư tại Viện Công nghệ Massachusetts và Chủ tịch Viện Tương lai của Sự sống, và Yoshua Bengio, được mệnh danh là một trong những "cha đẻ của AI" và là giáo sư tại Université de Montréal, đã nói về mối quan ngại của họ về trí tuệ nhân tạo tổng quát, hay AGI. Thuật ngữ này thường dùng để chỉ các hệ thống AI thông minh hơn con người.
Nỗi sợ hãi của họ bắt nguồn từ các công ty lớn nhất thế giới hiện đang nói về "tác nhân AI" hoặc "AI tác nhân" — mà các công ty tuyên bố sẽ cho phép các chatbot AI hoạt động như trợ lý hoặc tác nhân và hỗ trợ trong công việc và cuộc sống hàng ngày. Các ước tính của ngành về thời điểm AGI sẽ ra đời khác nhau.
Theo Bengio, với khái niệm đó, ý tưởng rằng các hệ thống AI có thể có một số "tác nhân" và suy nghĩ riêng của chúng xuất hiện.
“Các nhà nghiên cứu AI đã lấy cảm hứng từ trí thông minh của con người để xây dựng trí thông minh của máy móc, và ở con người, có sự kết hợp giữa khả năng hiểu thế giới như trí thông minh thuần túy và hành vi tác nhân, nghĩa là ... sử dụng kiến thức của bạn để đạt được mục tiêu”, Bengio chia sẻ với chương trình “Beyond The Valley”.
“Hiện tại, đây là cách chúng ta đang xây dựng AGI: chúng ta đang cố gắng biến chúng thành những tác nhân hiểu biết nhiều về thế giới, sau đó có thể hành động phù hợp. Nhưng thực tế đây là một đề xuất rất nguy hiểm”.
Bengio nói thêm rằng theo đuổi cách tiếp cận này cũng giống như “tạo ra một loài mới hoặc một thực thể thông minh mới trên hành tinh này” và “không biết liệu chúng có hành xử theo cách phù hợp với nhu cầu của chúng ta hay không”.
“Vì vậy, thay vào đó, chúng ta có thể cân nhắc, những kịch bản nào sẽ diễn ra tồi tệ và tất cả đều phụ thuộc vào tác nhân? Nói cách khác, chính vì AI có mục tiêu riêng nên chúng ta có thể gặp rắc rối”.
Bengio cho biết ý tưởng tự bảo vệ cũng có thể phát huy tác dụng khi AI trở nên thông minh hơn.
“Chúng ta có muốn cạnh tranh với những thực thể thông minh hơn mình không? Đây không phải là một canh bạc đáng tin cậy, đúng không? Vì vậy, chúng ta phải hiểu cách tự bảo vệ có thể trở thành mục tiêu trong AI”.
Công cụ AI là chìa khóa
Đối với Tegmark của MIT, chìa khóa nằm ở cái gọi là “AI công cụ” — các hệ thống được tạo ra cho một mục đích cụ thể, được xác định hẹp, nhưng không nhất thiết phải là tác nhân.
Tegmark cho biết AI công cụ có thể là một hệ thống cho bạn biết cách chữa ung thư hoặc thứ gì đó sở hữu “một số tác nhân” như xe tự lái “nơi bạn có thể chứng minh hoặc nhận được một số đảm bảo thực sự cao, thực sự đáng tin cậy rằng bạn vẫn có thể kiểm soát được nó”.
“Tôi nghĩ, theo hướng lạc quan ở đây, chúng ta có thể có hầu hết mọi thứ mà chúng ta mong đợi với AI ... nếu chúng ta chỉ cần nhấn mạnh vào một số tiêu chuẩn an toàn cơ bản trước khi mọi người có thể bán các hệ thống AI mạnh mẽ”, Tegmark cho biết. “Họ phải chứng minh rằng chúng ta có thể kiểm soát chúng. Sau đó, ngành công nghiệp sẽ đổi mới nhanh chóng để tìm ra cách thực hiện điều đó tốt hơn”.
Viện Tương lai của Sự sống của Tegmark năm 2023 đã kêu gọi tạm dừng phát triển các hệ thống AI có thể cạnh tranh với trí thông minh ở cấp độ con người. Mặc dù điều đó chưa xảy ra, Tegmark cho biết mọi người đang nói về chủ đề này và bây giờ đã đến lúc hành động để tìm ra cách đặt ra các rào cản để kiểm soát AGI.
"Vì vậy, ít nhất là bây giờ rất nhiều người đang nói. Chúng ta phải xem liệu chúng ta có thể khiến họ hành động hay không", Tegmark nói với chương trình "Beyond The Valley". "Rõ ràng là con người chúng ta đang điên rồ khi xây dựng một thứ gì đó thông minh hơn chúng ta rất nhiều trước khi chúng ta tìm ra cách kiểm soát nó".
Có một số quan điểm về thời điểm AGI sẽ xuất hiện, một phần là do các định nghĩa khác nhau. Giám đốc điều hành của OpenAI, Sam Altman cho biết công ty của ông biết cách xây dựng AGI và cho biết nó sẽ xuất hiện sớm hơn mọi người nghĩ, mặc dù ông đã hạ thấp tác động của công nghệ này. "Tôi đoán là chúng ta sẽ đạt được AGI sớm hơn hầu hết mọi người trên thế giới nghĩ và điều đó sẽ ít quan trọng hơn nhiều", Altman cho biết vào tháng 12.