Trí tuệ nhân tạo (AI) nguy hiểm như chiến tranh hạt nhân và đại dịch toàn cầu. Đó là theo cảnh báo mới nhất do Trung tâm An toàn AI (CAIS) đưa ra. Tuyên bố được hỗ trợ bởi những người chơi lớn trong ngành công nghiệp AI bao gồm Sam Altman, người đứng đầu OpenAI, người tạo ra ChatGPT.
Cảnh báo này là một trong nhiều cảnh báo đã được đưa ra trong những tháng gần đây. Một số người sáng tạo ban đầu của công nghệ này cũng đã tuyên bố rằng, chúng ta đang lao đầu vào việc hủy diệt loài người trong khi những người khác cảnh báo rằng quy định là rất cần thiết.
Một số trong những tuyên bố này đã khiến mọi người phải vật lộn để hiểu ý nghĩa của những tuyên bố ngày càng cường điệu.
David Krueger, một chuyên gia về AI và trợ lý giáo sư tại Đại học Cambridge, nói rằng mặc dù mọi người có thể muốn có các kịch bản cụ thể khi nói đến rủi ro tồn tại của AI, nhưng vẫn rất khó để chỉ ra những điều này với bất kỳ mức độ chắc chắn nào.
"Tôi không lo lắng vì có một mối đe dọa sắp xảy ra theo nghĩa mà tôi có thể thấy chính xác mối đe dọa đó là gì. Nhưng tôi nghĩ chúng ta không có nhiều thời gian để chuẩn bị cho những mối đe dọa tiềm ẩn sắp tới", anh nói.
Với ý nghĩ đó, dưới đây là một số vấn đề tiềm năng mà các chuyên gia đang lo lắng:
1. Sự tiếp quản của AI
Một trong những rủi ro thường được trích dẫn nhất là AI sẽ vượt khỏi tầm kiểm soát của người tạo ra nó.
Trí tuệ tổng quát nhân tạo (AGI) đề cập đến AI thông minh hoặc thông minh hơn con người trong một loạt các nhiệm vụ. Các hệ thống AI hiện tại không có tri giác nhưng chúng được tạo ra để giống con người. Ví dụ, ChatGPT được xây dựng để khiến người dùng cảm thấy như họ đang trò chuyện với một người khác, Janis Wong nói về Viện Alan Turing.
Các chuyên gia đang có ý kiến khác nhau về cách xác định chính xác AGI nhưng nhìn chung đều đồng ý rằng công nghệ tiềm năng này gây ra những mối nguy hiểm cho nhân loại cần được nghiên cứu và điều chỉnh.
Krueger cho biết, ví dụ rõ ràng nhất về những mối nguy hiểm này là sự cạnh tranh quân sự giữa các quốc gia. Ông nói: “Cạnh tranh quân sự với vũ khí tự động – những hệ thống được thiết kế có khả năng ảnh hưởng đến thế giới vật chất và gây hại – có vẻ rõ ràng hơn về việc những hệ thống như vậy có thể giết chết nhiều người như thế nào”.
"Một kịch bản chiến tranh tổng lực được hỗ trợ bởi AI trong tương lai khi chúng ta có các hệ thống tiên tiến thông minh hơn con người, tôi nghĩ rất có thể các hệ thống đó sẽ mất kiểm soát và kết quả là có thể giết chết tất cả mọi người", ông nói. thêm.
2. AI gây thất nghiệp hàng loạt
Ngày càng có nhiều sự đồng thuận rằng AI là mối đe dọa đối với một số công việc.
Abhishek Gupta, người sáng lập Viện đạo đức AI Montreal, cho biết viễn cảnh mất việc làm do AI gây ra là mối đe dọa hiện hữu "thực tế, tức thì và có lẽ cấp bách" nhất. Ông nói: “Chúng ta cần xem xét sự thiếu mục đích mà mọi người sẽ cảm thấy khi bị mất việc làm hàng loạt. "Phần tồn tại của nó là mọi người sẽ làm gì và họ sẽ lấy mục đích của mình từ đâu?" “Điều đó không có nghĩa là công việc là tất cả, nhưng nó là một phần cuộc sống của chúng tôi,” ông nói thêm.
Các CEO đang bắt đầu thẳng thắn về kế hoạch tận dụng AI của họ. Chẳng hạn, Giám đốc điều hành IBM Arvind Krishna gần đây đã tuyên bố công ty sẽ giảm tốc độ tuyển dụng những vị trí có thể bị thay thế bằng AI. "Bốn hoặc năm năm trước, không ai có thể nói bất cứ điều gì như tuyên bố đó và được coi trọng," Gupta nói về IBM.
3. AI thiên vị
Các chuyên gia nói rằng, nếu các hệ thống AI được sử dụng để giúp đưa ra các quyết định xã hội rộng lớn hơn, thì sự thiên vị có hệ thống có thể trở thành một rủi ro nghiêm trọng.
Đã có một số ví dụ về sự thiên vị trong các hệ thống AI tổng quát, bao gồm cả các phiên bản đầu tiên của ChatGPT. Bạn có thể đọc một số câu trả lời gây sốc từ chatbot tại đây. OpenAI đã bổ sung thêm nhiều biện pháp bảo vệ để giúp ChatGPT tránh được các câu trả lời có vấn đề từ những người dùng yêu cầu hệ thống cung cấp nội dung xúc phạm. Theo các thử nghiệm đã được thực hiện vào đầu năm nay, các mô hình hình ảnh AI tạo ra có thể tạo ra các khuôn mẫu có hại.
Gupta cho biết nếu có những trường hợp sai lệch không bị phát hiện trong các hệ thống AI được sử dụng để đưa ra các quyết định trong thế giới thực, chẳng hạn như phê duyệt các khoản phúc lợi, thì điều đó có thể gây ra hậu quả nghiêm trọng.
Theo Wong, dữ liệu đào tạo thường dựa trên dữ liệu chủ yếu bằng tiếng Anh và kinh phí để đào tạo các mô hình AI khác bằng các ngôn ngữ khác nhau bị hạn chế. “Vì vậy, có rất nhiều người bị loại trừ hoặc một số ngôn ngữ nhất định sẽ được đào tạo kém hơn so với các ngôn ngữ khác,” cô nói.