Trong thời đại công nghệ thông tin bùng nổ, một mối đe dọa mới đang nổi lên: "Đầu độc dữ liệu". Hiện tượng này không chỉ làm suy giảm chất lượng của trí tuệ nhân tạo (AI) mà còn tiềm ẩn nguy cơ gây ra những hậu quả nghiêm trọng khác. Điều này đòi hỏi sự chung tay của cả cộng đồng khoa học và các nhà lập pháp để tìm kiếm giải pháp toàn diện.
Khi AI ngày càng trở nên phổ biến, các chuyên gia đang đối mặt với thách thức lớn từ các cuộc tấn công mục đích xấu, nhằm cài cắm thông tin sai lệch vào dữ liệu huấn luyện của AI. Điều này có thể dẫn đến việc phát tán tin giả, làm giảm hiệu quả của các chatbot và thậm chí khiến AI thực hiện hành động có hại.
Các mô hình AI, đặc biệt là những mô hình phụ thuộc vào dữ liệu Internet, đang đứng trước nguy cơ bị tấn công. Sự phụ thuộc vào nguồn dữ liệu mở, thay vì dữ liệu được kiểm soát chặt chẽ, tạo ra thách thức trong việc phát hiện và loại bỏ thông tin độc hại.
Chỉ một lượng nhỏ thông tin sai lệch cũng có thể ảnh hưởng lớn đến kết quả của AI. Florian Tramer, trợ lý giảng viên tại Viện Công nghệ Liên bang Zurich, cảnh báo: "Internet không phải lúc nào cũng là nguồn thông tin đáng tin cậy." Ông và nhóm nghiên cứu đã tập trung vào Wikipedia để hiểu rõ hơn về mức độ ảnh hưởng của việc đầu độc dữ liệu.
Wikimedia Foundation, qua lời của Tajh Taylor, Phó chủ tịch phụ trách khoa học dữ liệu và kỹ thuật, đã xây dựng quy trình để giảm thiểu mối đe dọa này. OpenAI cũng khẳng định họ đang cải thiện các biện pháp an toàn, dựa trên cách người dùng tương tác với sản phẩm của mình.
David Harris, giảng viên tại Trường Kinh doanh Haas, Đại học California tại Berkeley, nhấn mạnh tầm quan trọng của việc có cơ chế lập pháp đối phó với tình hình. Ông chỉ ra rằng Đạo luật AI mới của EU đã đề cập đến vấn đề này, yêu cầu các nhà phát triển AI triển khai biện pháp kiểm soát an ninh.
Apostol Vassilev, trưởng nhóm nghiên cứu an toàn máy tính tại Viện Tiêu chuẩn và Công nghệ Quốc gia Mỹ, cũng nhấn mạnh tầm quan trọng của việc hoàn thiện bộ luật và quy định, coi đó là yếu tố then chốt để khuyến khích doanh nghiệp áp dụng AI một cách an toàn.
Nguy cơ từ việc sử dụng AI để xử lý dữ liệu nhạy cảm là điều không thể xem nhẹ. Các chuyên gia đánh giá rằng, nếu không có biện pháp phòng vệ đúng đắn, tình hình có thể trở nên nguy hiểm khi AI ngày càng được ứng dụng rộng rãi. Đây là lời cảnh báo cho tất cả các tổ chức và cá nhân khi tiếp xúc và sử dụng AI trong thời đại số.
Trong một bước tiến đột phá, các nhà nghiên cứu tại Đại học Chicago dưới sự dẫn dắt của Giáo sư Ben Zhao đã phát triển một công cụ mới mang tên Nightshade, nhằm bảo vệ quyền sở hữu trí tuệ trong kỷ nguyên số. Nightshade, một phần mềm độc đáo, được thiết kế để ngăn chặn việc sử dụng trái phép các tác phẩm nghệ thuật và sáng tạo trong quá trình huấn luyện các mô hình trí tuệ nhân tạo (AI).
Giáo sư Zhao và nhóm của ông đã chứng minh khả năng của Nightshade trong việc chèn các chi tiết vô hình vào hình ảnh, mà khi được sử dụng để huấn luyện AI, sẽ làm giảm đáng kể chất lượng của mô hình. Theo ông Zhao, chỉ cần 50 bức ảnh đã được chỉnh sửa bởi Nightshade có thể gây ra sự cố lớn cho mô hình AI tạo ảnh, từ đó cung cấp một lớp bảo vệ mạnh mẽ chống lại việc vi phạm bản quyền. Đây được coi là một chiến thuật phòng thủ hiệu quả, có tiềm năng tạo ra những hậu quả nghiêm trọng cho những ai cố tình vi phạm quyền sở hữu trí tuệ của người khác.