LeCun tự coi mình là X với tư cách là một “nhà nhân văn ủng hộ cả hai hình thức Tích cực và Chuẩn mực của Chủ nghĩa Lạc quan Công nghệ Tích cực”.
LeCun, người gần đây đã nói rằng anh ấy không mong đợi “siêu trí tuệ” AI sẽ xuất hiện trong một thời gian khá dài, đã đóng vai trò là người phản biện trước công chúng đối với những người mà anh ấy nói “nghi ngờ rằng các thể chế kinh tế và chính trị hiện tại cũng như nhân loại với tư cách là một toàn bộ, sẽ có khả năng sử dụng [AI] mãi mãi.”
Việc Meta nắm lấy AI nguồn mở làm cơ sở cho niềm tin của Lecun rằng công nghệ này sẽ mang lại nhiều tiềm năng hơn là có hại, trong khi những người khác chỉ ra sự nguy hiểm của một mô hình kinh doanh như Meta đang thúc đẩy các mô hình AI thế hệ có sẵn rộng rãi được đặt vào tay nhiều nhà phát triển.
Vào tháng 3, một bức thư ngỏ của Encode Justice và Viện Tương lai Cuộc sống đã kêu gọi “tất cả các phòng thí nghiệm AI ngay lập tức tạm dừng trong ít nhất sáu tháng việc đào tạo các hệ thống AI mạnh hơn GPT-4”.
Bức thư đã được xác nhận bởi những nhân vật nổi tiếng trong lĩnh vực công nghệ, như Elon Musk và đồng sáng lập Apple Steve Wozniak.
Giám đốc điều hành OpenAI Sam Altman đã gửi lại bức thư vào tháng 4 tại một sự kiện của MIT, nói rằng: “Tôi nghĩ việc hành động thận trọng và ngày càng nghiêm ngặt hơn đối với các vấn đề an toàn là thực sự quan trọng. Tôi không nghĩ lá thư là cách tối ưu để giải quyết vấn đề này.”
Altman lại bị cuốn vào trận chiến khi màn kịch trong phòng họp OpenAI diễn ra và các giám đốc ban đầu của tổ chức phi lợi nhuận OpenAI ngày càng lo ngại về tốc độ tiến bộ nhanh chóng và sứ mệnh đã nêu của nó “đảm bảo rằng trí tuệ nhân tạo chung - các hệ thống AI nói chung thông minh hơn”. hơn con người - mang lại lợi ích cho toàn nhân loại.”
Một số ý tưởng từ bức thư ngỏ là chìa khóa để giảm tốc, những người ủng hộ việc giảm tốc AI. Decels muốn tiến độ chậm lại vì tương lai của AI đầy rủi ro và khó đoán, và một trong những mối quan tâm lớn nhất của họ là sự liên kết của AI.
Vấn đề liên kết AI giải quyết ý tưởng rằng AI cuối cùng sẽ trở nên thông minh đến mức con người không thể kiểm soát được nó.
“Sự thống trị của chúng ta với tư cách là một loài, được thúc đẩy bởi trí thông minh tương đối vượt trội của chúng ta, đã dẫn đến những hậu quả có hại cho các loài khác, bao gồm cả sự tuyệt chủng, vì mục tiêu của chúng ta không phù hợp với mục tiêu của chúng. Chúng tôi kiểm soát tương lai - tinh tinh đang ở trong vườn thú. Malo Bourgon, Giám đốc điều hành của Viện nghiên cứu trí tuệ máy cho biết, các hệ thống AI tiên tiến có thể tác động tương tự đến nhân loại.
Nghiên cứu liên kết AI, chẳng hạn như của MIRI, nhằm mục đích đào tạo các hệ thống AI để “điều chỉnh” chúng phù hợp với mục tiêu, đạo đức và đạo đức của con người, điều này sẽ ngăn chặn mọi rủi ro hiện hữu đối với nhân loại. Bourgon cho biết: “Rủi ro cốt lõi là tạo ra các thực thể thông minh hơn chúng ta nhiều với các mục tiêu sai lệch mà hành động của chúng không thể đoán trước và không thể kiểm soát được”.
Vấn đề tận cùng của thế giới và AI
Christine Parthemore, Giám đốc điều hành của Hội đồng Rủi ro Chiến lược và là cựu quan chức Lầu Năm Góc, đã cống hiến sự nghiệp của mình để giảm thiểu rủi ro trong các tình huống nguy hiểm và gần đây bà nói với CNBC rằng khi chúng ta xem xét “cái chết quy mô lớn” mà AI có thể gây ra nếu được sử dụng để giám sát hoạt động hạt nhân. vũ khí, đây là vấn đề cần được quan tâm ngay lập tức.
Nhưng “nhìn thẳng vào vấn đề” sẽ không mang lại kết quả gì, cô nhấn mạnh. Bà nói: “Toàn bộ vấn đề là giải quyết các rủi ro và tìm ra các bộ giải pháp hiệu quả nhất. Cô nói thêm: “Đó là công nghệ sử dụng kép ở mức thuần túy nhất. “Không có trường hợp nào AI giống một vũ khí hơn là một giải pháp.” Ví dụ, các mô hình ngôn ngữ lớn sẽ trở thành trợ lý phòng thí nghiệm ảo và tăng tốc y học, đồng thời giúp những kẻ bất chính xác định các mầm bệnh tốt nhất và dễ lây truyền nhất để sử dụng cho cuộc tấn công. Cô nói, đây là một trong những lý do không thể dừng lại AI. “Chậm lại không phải là một phần của giải pháp,” Parthemore nói.
Đầu năm nay, chủ cũ của cô, Bộ Quốc phòng cho biết trong quá trình sử dụng hệ thống AI sẽ luôn có con người tham gia. Đó là một giao thức mà cô ấy nói nên được áp dụng ở mọi nơi. Cô nói: “Bản thân AI không thể là người có thẩm quyền. “Không thể chỉ là ‘AI nói X.’… Chúng ta cần tin tưởng vào các công cụ hoặc chúng ta không nên sử dụng chúng, mà chúng ta cần phải bối cảnh hóa. … Có đủ sự thiếu hiểu biết chung về bộ công cụ này nên có nguy cơ quá tự tin và phụ thuộc quá mức.”
Các quan chức của nhiều chính phủ và các nhà hoạch định chính sách đã bắt đầu lưu ý đến những rủi ro này. Vào tháng 7, chính quyền Biden-Harris thông báo rằng họ đã đạt được các cam kết tự nguyện từ các gã khổng lồ AI Amazon, Anthropic, Google, Inflection, Meta, Microsoft và OpenAI để “hướng tới sự phát triển an toàn, bảo mật và minh bạch của công nghệ AI”.
Chỉ vài tuần trước, Tổng thống Biden đã ban hành một mệnh lệnh hành pháp nhằm thiết lập thêm các tiêu chuẩn mới về an toàn và bảo mật AI, mặc dù các nhóm bên liên quan trong toàn xã hội lo ngại về những hạn chế của nó. Tương tự, chính phủ Vương quốc Anh đã giới thiệu Viện An toàn AI vào đầu tháng 11, đây là tổ chức đầu tiên được nhà nước hậu thuẫn tập trung vào việc điều hướng AI.
Trong cuộc chạy đua toàn cầu để giành ưu thế về AI và có mối liên hệ với sự cạnh tranh địa chính trị, Trung Quốc đang triển khai bộ rào chắn AI của riêng mình.
Lời hứa AI có trách nhiệm và sự hoài nghi
OpenAI hiện đang nghiên cứu Superalignment, nhằm mục đích “giải quyết những thách thức kỹ thuật cốt lõi của việc liên kết siêu trí tuệ trong bốn năm”.
Tại hội nghị Amazon Web Services re:Invent 2023 gần đây của Amazon, Amazon đã công bố các khả năng mới để đổi mới AI cùng với việc triển khai các biện pháp bảo vệ AI có trách nhiệm trong toàn tổ chức.
Diya Wynn, trưởng nhóm AI chịu trách nhiệm của AWS cho biết: “Tôi thường nói rằng đó là mệnh lệnh kinh doanh, rằng AI có trách nhiệm không nên được coi là một luồng công việc riêng biệt mà cuối cùng được tích hợp vào cách chúng tôi làm việc”.
Theo một nghiên cứu do AWS ủy quyền và Morning Consult thực hiện, AI có trách nhiệm là ưu tiên kinh doanh ngày càng tăng của 59% lãnh đạo doanh nghiệp, với khoảng một nửa (47%) có kế hoạch đầu tư nhiều hơn vào AI có trách nhiệm vào năm 2024 so với năm 2023.
Mặc dù việc tính đến AI có trách nhiệm có thể làm chậm tốc độ đổi mới của AI, nhưng các nhóm như Wynn vẫn tự coi mình đang mở đường hướng tới một tương lai an toàn hơn. Wynn cho biết: “Các công ty đang nhìn thấy giá trị và bắt đầu ưu tiên AI có trách nhiệm”. Do đó, “các hệ thống sẽ an toàn hơn, bảo mật hơn và toàn diện hơn”.
Bourgon không bị thuyết phục và nói rằng những hành động như những hành động được chính phủ công bố gần đây “còn xa so với những gì cuối cùng sẽ được yêu cầu”.
Ông dự đoán rằng các hệ thống AI có khả năng đạt đến mức thảm khốc vào đầu năm 2030 và các chính phủ cần chuẩn bị dừng vô thời hạn các hệ thống AI cho đến khi các nhà phát triển AI hàng đầu có thể “chứng minh một cách mạnh mẽ sự an toàn của hệ thống của họ”.