Một nghiên cứu mới từ Unit42, thuộc Palo Alto Networks, đã gióng lên hồi chuông cảnh báo về cách trí tuệ nhân tạo (AI) có thể bị lợi dụng để tạo ra hàng nghìn biến thể phần mềm độc hại (malware) với khả năng qua mặt các hệ thống phát hiện lên đến 88%.
Theo báo cáo công bố ngày 23/12, các mô hình ngôn ngữ lớn (LLM) như ChatGPT, khi được khai thác đúng cách, có thể viết lại hoặc nhân bản mã JavaScript độc hại ở quy mô lớn, biến chúng thành những phiên bản “vô hình” trước các công cụ bảo mật. Hacker chỉ cần đưa ra các câu lệnh tinh vi để LLM thực hiện chuyển đổi mã độc, làm cho chúng trông tự nhiên hơn và khó bị phát hiện.
"LLM có khả năng nâng cấp mã độc theo thời gian, làm suy yếu hiệu quả của các công cụ phân loại và khiến hệ thống bảo mật 'tin' rằng đoạn mã độc là an toàn," đại diện Unit42 nhấn mạnh.
Nhóm nghiên cứu của Unit42 đã thử nghiệm với một công cụ AI dựa trên LLM để tái tạo mã độc. Quá trình này bao gồm đổi tên biến, tách chuỗi, chèn mã rác, và loại bỏ các chi tiết không cần thiết, tạo ra 10.000 biến thể JavaScript độc hại mới mà vẫn giữ nguyên chức năng gốc.
“Kết quả cho thấy những đoạn mã độc này qua mặt các công cụ phân loại mã độc phổ biến như Innocent Until Proven Guilty (IUPG) hay PhishingJS, với tỷ lệ thành công lên tới 88%,” Unit42 cho biết.
Đáng lo ngại hơn, những biến thể này không chỉ tránh được các phần mềm diệt virus mà còn có thể đánh lừa các công cụ bảo mật khác, làm suy giảm đáng kể khả năng phân tích của hệ thống.
Dù các công ty đứng sau LLM như OpenAI đang tích cực tăng cường bảo mật để ngăn chặn việc lạm dụng, kẻ xấu vẫn tìm cách vượt qua các biện pháp bảo vệ này. Chúng có thể khai thác giao diện lập trình ứng dụng (API) hoặc bẻ khóa các công cụ để phục vụ mục đích xấu, điển hình như các phần mềm WormGPT và FraudGPT.
Trước đó, nghiên cứu của Check Point Research vào năm 2023 đã chỉ ra rằng ChatGPT có thể thực hiện một chuỗi tấn công hoàn chỉnh, từ việc tạo email lừa đảo đến phát tán virus. Tại Nhật Bản, một trường hợp cụ thể là Ryuki Hayashi, đã bị bắt vì sử dụng AI để tạo hồ sơ điện tử chứa mã độc vào tháng 4 năm nay.
Dự báo từ công ty bảo mật Fortinet cho rằng, năm tới sẽ chứng kiến sự gia tăng mạnh mẽ của các cuộc tấn công mạng sử dụng AI. Các nhóm tội phạm sẽ ngày càng chuyên môn hóa, kết hợp giữa mối đe dọa kỹ thuật số và vật lý để nhắm đến mục tiêu hiệu quả hơn, gây hậu quả nghiêm trọng hơn.
Trong bối cảnh này, việc tăng cường hợp tác quốc tế và phát triển các công cụ bảo mật tiên tiến hơn sẽ trở thành yếu tố then chốt để đối phó với làn sóng tội phạm công nghệ cao. AI, nếu không được kiểm soát, sẽ là con dao hai lưỡi đẩy các hệ thống bảo mật vào tình thế đầy thách thức.