Nghiên cứu tại Đại học Illinois Urbana-Champaign (UIUC) đã tiến hành thử nghiệm và phát hiện rằng GPT-4 có thể hoạt động kết hợp hoặc độc lập trong việc khai thác lỗ hổng an ninh mạng. Thậm chí, mô hình này tự học cách tấn công để trở nên hiệu quả hơn theo thời gian.
Trong thử nghiệm, GPT-4 đã thành công khai thác 87% lỗ hổng sau khi được cung cấp câu lệnh mô tả về CVE (cơ sở dữ liệu công khai về các lỗ hổng bảo mật phổ biến). Đáng chú ý, các mô hình ngôn ngữ lớn khác như GPT-3.5 của OpenAI, OpenHermes-2.5-Mistral-7B của Mistral AI và Llama-2 Chat 70B của Meta không thể khai thác thành công dù chỉ một lần.
Không chỉ nhanh hơn, chi phí tấn công mạng bằng GPT-4 còn rẻ hơn. Nhóm nghiên cứu ước tính rằng để thuê một chuyên gia an ninh mạng, bạn cần tốn khoảng 50 USD mỗi giờ. Tuy nhiên, GPT-4 có thể thực hiện công việc tương tự với giá thấp hơn 2,8 lần.
Tuy nhiên, hiện tại GPT-4 chỉ có thể tấn công các lỗ hổng đã biết. Mặc dù chưa có chìa khóa dẫn đến “ngày tận thế” trong lĩnh vực bảo mật, thử nghiệm vẫn cho thấy GPT-4 là mối lo ngại đặc biệt. Mô hình này không chỉ hiểu lý thuyết về lỗ hổng, mà còn có khả năng thực hiện các bước để khai thác tự động và tự học cách tấn công mới nếu thất bại.
Nhóm nghiên cứu dự đoán rằng mô hình GPT-5 sắp ra mắt có thể làm quá trình tấn công mạng trở nên dễ dàng hơn. Do đó, giới bảo mật cần suy nghĩ nghiêm túc để ngăn chặn AI trở thành hacker.
OpenAI chưa đưa ra bình luận chính thức. Tuy nhiên, theo Tom’s Hardware, công ty đã liên hệ với nhóm nghiên cứu và đề nghị tác giả không công khai các câu lệnh đã sử dụng trong thử nghiệm, và nhóm đã đồng ý.
Cuối năm ngoái, FortiGuard Labs (Mỹ), một nhóm nghiên cứu bảo mật hàng đầu tại Hoa Kỳ, trí tuệ nhân tạo (AI) tạo sinh đang dần trở thành một công cụ mạnh mẽ trong tay của hacker, với khả năng trở thành “vũ khí tấn công mạng” mới. Công nghệ này hiện đang được sử dụng trong nhiều khía cạnh khác nhau, từ việc vượt qua các thuật toán bảo mật cho đến việc tạo ra các video deepfake chân thực, nhằm mục đích bắt chước hành vi và giọng nói để đánh lừa người dùng.
Các chuyên gia cảnh báo rằng trong tương lai, hacker có thể tận dụng AI để phát triển những phương thức tấn công mới, tiên tiến hơn, có thể khiến các hệ thống bảo mật hiện đại không kịp thời đối phó. Tuy nhiên, cũng có một tia hy vọng khi AI cũng được xem xét như một giải pháp tiềm năng để chống lại chính những cuộc tấn công mạng mà nó có thể gây ra. Điều này mở ra một cuộc đua công nghệ mới, nơi mà các nhà bảo mật mạng cần phải không ngừng cập nhật và phát triển để không bị tụt hậu trong cuộc chiến chống lại tội phạm mạng.