Theo hãng tin Bloomberg, Bộ Quốc phòng Mỹ mới đây đã bắt đầu triển khai một dự án nhằm chống lại hoạt động tung tin giả mạo trên các phương tiện truyền thông đại chúng, vốn đã trở thành mối đe dọa đối với nền an ninh của Mỹ.
Trọng tâm của chiến dịch là phát triển phần mềm có thể phát hiện và loại bỏ tin tức, hình ảnh, âm thanh và video được cho là sản phẩm độc hại, gây ảnh hưởng xấu và gây nhiễu đối với xã hội Mỹ. Theo Cơ quan quản lý dự án nghiên cứu quốc phòng (Darpa) Mỹ, những loại thông tin này nằm ẩn trong hơn 500.000 sản phẩm truyền thông trên không gian mạng.
Tin tức giả mạo được tạo ra ngày càng tinh vi, khiến nhiều phần mềm điều khiển dữ liệu khó phát hiện hơn. Hình ảnh trí tuệ nhân tạo phát triển những năm gần đây trong điện ảnh, công nghiệp thời trang và hệ thống nhận diện khuôn mặt bị lạm dụng để tạo các video giả mạo.
Chuyên gia Andrew Grotto tại Trung tâm An ninh Quốc tế tại Đại học Stanford Mỹ nhận định: "Khoảng một thập kỷ trước, những công nghệ hiện nay vẫn còn được coi là điều viễn tưởng. Chúng ta có thể thấy công nghệ đã phát triển nhanh chóng như thế nào".
Nhiều nghiên cứu cho rằng, các công nghệ này có thể được sử dụng để tạo ra những video giả. Đạo diễn nổi tiếng Jordan Peele, người từng đạt giải Oscar, trước đây đã làm một đoạn video giả về cựu Tổng thống Barack Obama nêu ý kiến về bộ phim Black Panther và ông Donald Trump. Đoạn video đã cho thấy công nghệ AI đã phát triển như thế nào và Jordan Peele muốn cảnh báo mọi người cần thận trọng với những nội dung trên mạng Internet.
Hiện giới chức Washington vẫn đang nỗ lực chuẩn bị cho những kế hoạch nhằm ngăn chặn tin tặc nước ngoài sử dụng các kênh mạng xã hội để tung tin sai lệch, từ đó can thiệp vào cuộc bầu cử năm 2020. Chính Tổng thống Donald Trump cũng từng phải đối mặt với nhiều cáo buộc cho rằng, những nội dung giả mạo trên các nền tảng Facebook, Twitter, Google...đã giúp ông giành chiến thắng trong cuộc bầu cử hồi năm 2016.
Bằng cách tăng kiểm tra thuật toán số, Darpa hy vọng có thể phát hiện ra tin tức có mục đích xấu trước khi bị phát tán. Dựa trên sự không nhất quán, có thể phát hiện ra sản phẩm truyền thông có bị làm giả hay không. Đối với những kẻ giả mạo, đòi hỏi phải làm mọi chi tiết chính xác, trong khi phần mềm chỉ cần tìm một chi tiết không nhất quán là có thể cho kết quả đâu là hàng giả, đâu là hàng thật.
Ví dụ, phần mềm dễ dàng phát hiện bông tai của một nhân vật không khớp nhau trong video làm giả, hoặc những chi tiết khác có thể bị máy móc bỏ qua nhưng con người thì dễ dàng nhận diện được như sự lệch lạc ở răng, đầu tóc rối bù và phông nền khác thường xuất hiện trong video giả mạo.
Những câu chuyện giả mạo có thể trở nên ngày càng nguy hiểm hơn với sự xuất hiện của công nghệ deepfake đang ngày càng trở nên tinh vi và khiến việc phát hiện tin giả bằng các phần mềm dựa trên dữ liệu trở nên khó khăn hơn. Các nhà nghiên cứu đã cho thấy những mạng đối nghịch tổng hợp – hay GANs – có thể được sử dụng để tạo ra các video giả mạo.
Bằng cách tăng cường số lần kiểm tra thuật toán, cơ quan nghiên cứu quân sự hy vọng họ có thể phát hiện tin giả với các ý định độc hại trước khi nó lan truyền rộng rãi. Cơ quan cho biết về chương trình giám sát ngữ nghĩa Semantic Forensics của họ: “Một bộ toàn diện các công cụ phát hiện mâu thuẫn về ngữ nghĩa sẽ làm tăng đáng kể gánh nặng cho những kẻ tạo ra tin giả, buộc chúng phải làm chính xác mọi chi tiết về ngữ nghĩa, trong khi những người ngăn chặn chỉ cần phát hiện ra một, hoặc một vài điểm mâu thuẫn. Công nghệ SemaFor sẽ giúp xác định, ngăn chặn và hiểu được các chiến dịch thông tin sai lệch gây bất lợi”.