Thông báo mới đây của Meta – về việc sử dụng các bài đăng công khai của người dùng tại châu Âu để huấn luyện mô hình trí tuệ nhân tạo – không chỉ là một bước tiến công nghệ. Đằng sau quyết định này là làn sóng tranh luận gay gắt liên quan đến quyền riêng tư, đạo đức dữ liệu và vai trò kiểm soát của pháp luật châu Âu trong kỷ nguyên AI.
Từ tháng 6/2024, Meta từng có ý định triển khai việc thu thập dữ liệu người dùng tại EU, nhưng đã buộc phải trì hoãn trước sức ép từ các cơ quan quản lý. Đến giữa tháng 4 năm nay, công ty tuyên bố đã "đáp ứng các nghĩa vụ pháp lý" để chính thức triển khai việc này. Tuy nhiên, thông tin đó chưa đủ để làm yên lòng giới lập pháp cũng như cộng đồng bảo vệ quyền riêng tư.
Liên minh châu Âu vốn nổi tiếng với Quy định Bảo vệ Dữ liệu Chung (GDPR), được xem là một trong những bộ luật nghiêm ngặt nhất thế giới về quyền riêng tư cá nhân. Trong bối cảnh AI phát triển như vũ bão, GDPR đang đối mặt với thách thức lớn: làm thế nào để bảo vệ dữ liệu người dùng trước nhu cầu ngày càng tăng của các mô hình học máy?
Theo nhiều chuyên gia, việc Meta thu thập dữ liệu công khai để huấn luyện AI có thể nằm trong "vùng xám" pháp lý – nơi sự đồng thuận của người dùng bị đơn giản hóa thành một biểu mẫu phản đối, thay vì sự cho phép chủ động và rõ ràng. Điều này đi ngược lại với tinh thần của GDPR, vốn đặt quyền kiểm soát dữ liệu vào tay người dùng.
Tổ chức NOYB (None of Your Business) – do nhà hoạt động nổi tiếng Max Schrems sáng lập – đã nhiều lần lên tiếng cảnh báo rằng các hành vi thu thập dữ liệu AI hiện nay có thể vi phạm điều khoản minh bạch, công bằng và mục đích sử dụng dữ liệu trong GDPR. NOYB dự kiến sẽ gửi đơn khiếu nại về hành vi này lên các cơ quan giám sát dữ liệu ở châu Âu.
Từ góc độ đạo đức, việc thu thập và sử dụng dữ liệu người dùng để huấn luyện AI đặt ra nhiều câu hỏi đáng lo ngại. Dù đó là dữ liệu công khai, nhưng việc biến mọi tương tác – từ một dòng trạng thái năm 2009 đến một bình luận ngẫu nhiên năm 2023 – thành nguyên liệu huấn luyện cho AI là một hành vi vượt quá kỳ vọng hợp lý của người dùng.
Trong khi Meta nhấn mạnh rằng hành vi này là “minh bạch hơn các đối thủ”, thì giới chuyên gia cho rằng sự minh bạch chỉ thực sự tồn tại khi người dùng được cung cấp đầy đủ thông tin, dễ hiểu và có quyền chọn lựa rõ ràng. Việc đưa ra một biểu mẫu phản đối, giấu kỹ trong hệ thống, khó có thể xem là biểu hiện của sự đồng thuận tự nguyện và có nhận thức – nguyên tắc nền tảng của đạo đức dữ liệu hiện đại.
Động thái của Meta diễn ra chỉ vài tháng sau khi Nghị viện châu Âu thông qua Đạo luật AI (AI Act) – bộ quy định đầu tiên trên thế giới nhằm kiểm soát các rủi ro từ trí tuệ nhân tạo. Dù chưa có hiệu lực hoàn toàn, AI Act sẽ là công cụ pháp lý quan trọng buộc các tập đoàn như Meta, Google hay OpenAI phải minh bạch hơn và chịu trách nhiệm giải trình về dữ liệu huấn luyện, quyền riêng tư và các tác động xã hội.
Một số nghị sĩ châu Âu đã lên tiếng chỉ trích Meta vì cố gắng “lách luật” và tận dụng các kẽ hở của GDPR trước khi AI Act chính thức có hiệu lực vào năm 2026. Họ kêu gọi các cơ quan bảo vệ dữ liệu tại từng quốc gia thành viên EU tăng cường giám sát và, nếu cần thiết, áp dụng các biện pháp xử phạt mạnh tay.
Vụ việc không chỉ phản ánh cuộc chạy đua công nghệ giữa các tập đoàn AI, mà còn đặt ra một thách thức sâu sắc với nền pháp quyền và đạo đức số tại châu Âu. Khi ranh giới giữa đổi mới và xâm phạm ngày càng mong manh, câu hỏi quan trọng không còn là "liệu có thể làm điều đó", mà là "liệu nên làm điều đó hay không".