Các chuyên gia đến từ Đại học Purdue, Mỹ, đã đưa ra những cảnh báo nghiêm trọng về việc trí tuệ nhân tạo (AI) đang trở thành công cụ hỗ trợ cho các hành vi bắt nạt trực tuyến, đặc biệt là đối với học sinh và sinh viên. Sự phát triển nhanh chóng của công nghệ này không chỉ tạo ra những mối nguy hiểm mới mà còn làm tăng thêm sức ép cho những nạn nhân trong một thế giới số ngày càng phức tạp.
Theo nghiên cứu của Đại học Purdue, các công cụ AI có khả năng tạo ra hình ảnh giả mạo dưới dạng Deepfake của những người bị bắt nạt. Những hình ảnh này thường xuất hiện trong các tình huống không có thật, nhằm mục đích đe dọa hoặc tống tiền nạn nhân. Điều đáng nói là nhiều nạn nhân gặp khó khăn trong việc chứng minh tính giả mạo của những hình ảnh này, dẫn đến những hậu quả nghiêm trọng như bỏ học hoặc rơi vào tình trạng trầm cảm.
AI không chỉ hỗ trợ cho hành vi bắt nạt từ bên ngoài mà còn góp phần vào vấn nạn tự bắt nạt. Người dùng có thể tạo tài khoản giả mạo và tự hành hạ bản thân mình thông qua các công cụ AI. Điều này khiến các bậc phụ huynh cần cảnh giác và nhận thức rõ hơn về các hình thức bắt nạt trực tuyến đang ngày càng tinh vi, nhằm bảo vệ trẻ vị thành niên khỏi những rủi ro trên không gian mạng.
Dữ liệu từ Quỹ giám sát Internet Watch Foundation (Anh) trong năm 2023 đã chỉ ra con số đáng báo động: chỉ trong vòng một tháng, một trang web đen đã lưu trữ tới 20.254 hình ảnh do AI tạo ra, trong đó 11.108 hình ảnh khả năng cao là tội phạm. Chính phủ Anh đã xác định 2.562 hình ảnh thuộc diện tài liệu khai thác tình dục trẻ em; 416 hình ảnh khác nằm trong danh sách hình ảnh bị cấm theo luật hình sự.
Tương tự, Trung tâm Chống bóc lột trẻ em của Australia đã ghi nhận hơn 49.500 báo cáo liên quan đến tài liệu lạm dụng tình dục trẻ em trong tài khóa 2023-2024, tăng khoảng 9.300 so với năm trước. Khoảng 90% tài liệu Deepfake trực tuyến được cho là có nội dung khiêu dâm, cho thấy rõ ràng rằng công nghệ AI đang bị lợi dụng để tạo ra những tài liệu lạm dụng tình dục trẻ em khó phân biệt với hình ảnh thật.
Bộ An ninh Nội địa Mỹ đã chỉ ra nhiều phương thức khác nhau để tạo ra tài liệu khiêu dâm trẻ em bằng công nghệ AI, bao gồm hình ảnh và video dựa trên hình ảnh thật của trẻ em hoặc sử dụng Deepfake để ghép khuôn mặt và giọng nói của trẻ em vào những nội dung phản cảm. Điều này càng làm gia tăng mối lo ngại về việc tội phạm chia sẻ thông tin hướng dẫn sử dụng AI để sản xuất nội dung lạm dụng.
Công ty công nghệ Thorn, chuyên về an toàn cho trẻ em, cũng đã xác định nhiều cách thức lạm dụng các công cụ AI để tạo ra tài liệu này. Họ nhấn mạnh rằng việc lạm dụng AI đang làm khó khăn trong việc xác định nạn nhân. Những phương pháp truyền thống hiện nay không còn đủ hiệu quả để bắt kịp với tốc độ sáng tạo nội dung mới từ hành động lạm dụng AI.
Sự gia tăng của công nghệ AI và các hành vi lạm dụng đi kèm đang tạo ra một thách thức lớn trong việc bảo vệ trẻ em trên không gian mạng. Cần có sự đồng hành từ các bậc phụ huynh, giáo viên và cộng đồng để bảo vệ thế hệ trẻ khỏi những hiểm họa tiềm ẩn này.