Geoffrey Hinton viết trên Twitter: “Tôi rời đi để có thể nói về sự nguy hiểm của AI mà không xem xét điều này ảnh hưởng đến Google như thế nào”.
Trong một cuộc phỏng vấn với New York Times, Hinton cho biết ông lo lắng về khả năng tạo ra những hình ảnh và văn bản sai lệch thuyết phục của AI, tạo ra một thế giới mà mọi người sẽ "không thể biết đâu là sự thật nữa". "Thật khó để thấy làm thế nào bạn có thể ngăn chặn những kẻ xấu sử dụng nó cho những điều xấu," ông nói.
Công nghệ này có thể nhanh chóng thay thế công nhân và trở thành mối nguy hiểm lớn hơn khi nó học các hành vi mới.
Ông nói với tờ New York Times: “Ý tưởng rằng thứ này thực sự có thể trở nên thông minh hơn con người – một số người đã tin vào điều đó. “Nhưng hầu hết mọi người nghĩ rằng đó là cách tắt. Và tôi nghĩ rằng nó đã tắt. Tôi nghĩ rằng đó là 30 đến 50 năm hoặc thậm chí lâu hơn nữa. Rõ ràng là tôi không còn nghĩ như vậy nữa”.
Trong dòng tweet của mình, Hinton cho biết bản thân Google đã "hành động rất có trách nhiệm" và phủ nhận việc ông nghỉ việc để chỉ trích sếp cũ.
Google, một phần của Alphabet Inc., đã không trả lời ngay lập tức yêu cầu bình luận từ Reuters.
The Times dẫn lời nhà khoa học trưởng của Google, Jeff Dean, cho biết trong một tuyên bố: “Chúng tôi vẫn cam kết thực hiện một cách tiếp cận có trách nhiệm đối với A.I. Chúng tôi không ngừng học hỏi để hiểu những rủi ro mới nổi đồng thời đổi mới một cách táo bạo.”
Kể từ khi công ty khởi nghiệp OpenAI do Microsoft hậu thuẫn phát hành ChatGPT vào tháng 11 năm ngoái, số lượng ứng dụng "AI thế hệ mới" ngày càng tăng có thể tạo văn bản hoặc hình ảnh đã gây lo ngại về quy định của công nghệ trong tương lai.
Tiến sĩ Carissa Veliz, phó giáo sư triết học tại Đại học cho biết: “Có quá nhiều chuyên gia đang lên tiếng về những lo ngại của họ về sự an toàn của AI, với việc một số nhà khoa học máy tính đi xa đến mức hối tiếc về một số công việc của họ. Viện Đạo đức trong AI của Oxford cho biết: "Bây giờ là lúc để điều chỉnh AI."