Ilya Sutskever, người đồng sáng lập và cựu kiến trúc sư trưởng của OpenAI, đã thông báo về việc thành lập công ty Safe Superintelligence, tập trung vào nghiên cứu và phát triển siêu trí tuệ an toàn.
Safe Superintelligence có trụ sở tại Palo Alto và văn phòng đầu tiên tại Tel Aviv, Israel. Sutskever đã viết trên X ngày 20/6 rằng công ty tập trung vào việc đảm bảo an toàn và bảo mật, và không để chi phí quản lý và áp lực thương mại ảnh hưởng đến tiến độ sản phẩm.
Ngoài Ilya Sutskever, Safe Superintelligence còn có sự tham gia của Daniel Levy, một nhà nghiên cứu từng làm việc tại OpenAI, và Daniel Gross, đồng sáng lập của Cue và cựu lãnh đạo AI tại Apple.
Sutskever, người đã đứng sau việc sa thải CEO Sam Altman của OpenAI vào ngày 17/11 năm trước, là một trong những người đồng sáng lập kiêm nhà khoa học trưởng của công ty. Sự khác biệt trong hướng phát triển trí tuệ nhân tạo siêu việt (AGI) giữa ban quản trị và Sam Altman được cho là nguyên nhân dẫn đến việc ông bị phế truất.
Tuy nhiên, cuộc lật đổ này đã nhanh chóng thất bại. Sau hơn 4 ngày, Altman đã trở lại vị trí cũ. Sutskever cũng thừa nhận hối hận về hành động của mình. Mặc dù không tham gia vào hội đồng quản trị mới, Sutskever vẫn giữ vai trò nhà khoa học trưởng, chịu trách nhiệm nghiên cứu và phát triển sản phẩm của công ty.
Vào ngày 14/5, ông thông báo rời OpenAI cùng với nhà nghiên cứu máy học Jan Leike. Cả hai là thành viên của dự án Superalignment, được OpenAI thành lập vào tháng 7/2023 để nghiên cứu các rủi ro liên quan đến phát triển trí tuệ nhân tạo phục vụ nhân loại, đặc biệt là AGI. Tuy nhiên, dự án này hiện đã bị giải thể. Leike viết trên X sau khi từ chức rằng “văn hóa và quy trình an toàn tại công ty đã lùi bước trước những sản phẩm hào nhoáng”.
OpenAI hiện đang trải qua nhiều thay đổi trong đội ngũ lãnh đạo. Cuối tuần trước, việc bổ nhiệm Paul Nakasone vào ban giám đốc đã gây lo ngại. Nakasone, người từng là giám đốc Cơ quan An ninh Quốc gia Hoa Kỳ (NSA), cũng đã đứng đầu bộ phận an ninh mạng của Bộ Quốc phòng Mỹ.
Xu hướng thành lập các công ty chuyên về trí tuệ nhân tạo an toàn ngày càng nổi lên trong ngành công nghệ hiện đại, và việc Ilya Sutskever thành lập Safe Superintelligence là một bước đi đáng chú ý trong lĩnh vực này. Với cam kết tập trung vào an toàn và bảo mật, Safe Superintelligence hứa hẹn mang đến những đóng góp đáng kể cho việc phát triển các công nghệ trí tuệ nhân tạo, đặc biệt là AGI, với sự tham gia của các nhân tài hàng đầu như Daniel Levy và Daniel Gross. Việc này cũng thể hiện sự thay đổi trong cách tiếp cận và quản lý ngành công nghệ AI, đồng thời mở ra những triển vọng mới trong lĩnh vực đầy tiềm năng này.