Thông báo mới nhất từ nhóm phát triển Gemini của Google đã khơi dậy làn sóng lo ngại về quyền riêng tư trong cộng đồng công nghệ toàn cầu. Kể từ ngày 7/7, trợ lý AI này sẽ có khả năng truy cập sâu vào các ứng dụng cốt lõi trên Android như Điện thoại, Tin nhắn, WhatsApp và các tiện ích hệ thống – bất kể người dùng có bật tính năng theo dõi hoạt động ứng dụng (Apps Activity) hay không.
Đây không còn là câu chuyện đơn giản về một bản cập nhật mới. Nó mở ra một câu hỏi lớn hơn: Liệu ranh giới giữa trải nghiệm AI “tiện lợi” và sự giám sát âm thầm đã bị xóa nhòa?
Trong email gửi đến người dùng, nhóm Gemini mô tả mơ hồ rằng họ sẽ “hỗ trợ tương tác với các ứng dụng khác”, song không đưa ra hướng dẫn cụ thể về cách vô hiệu hóa hoặc điều chỉnh quyền truy cập. Điều này tạo ra một vùng xám thông tin nguy hiểm – nơi người dùng không rõ Gemini sẽ truy cập dữ liệu ở mức nào, và có thể thực hiện hành vi gì trong ứng dụng bên thứ ba như WhatsApp.
Sự mập mờ càng trở nên đáng lo khi theo chính sách hiện hành của Google, ngay cả khi người dùng tắt Apps Activity, dữ liệu vẫn có thể được lưu giữ trong tối đa 72 giờ. Trong trường hợp bật tính năng này, thời gian lưu trữ lên đến 18 tháng và... có thể được con người xem xét.
Với tính năng mới, Gemini được mở khóa quyền truy cập cấp hệ thống – một đặc quyền mà trước đây chỉ các dịch vụ Android cốt lõi hoặc các công cụ quản trị thiết bị mới có. Trong bối cảnh AI đang tiến gần đến vai trò “tổng quản dữ liệu số”, sự mở rộng quyền hạn của Gemini khiến nhiều chuyên gia an ninh mạng lo ngại: Liệu Google đang tạo ra một mô hình trợ lý AI với đặc quyền vượt quá tầm kiểm soát người dùng, đồng thời đặt ra tiền lệ cho các hãng công nghệ khác?
Câu hỏi không chỉ là liệu Gemini có đọc tin nhắn hay không – mà là liệu AI có thể tương tác ngầm với thông tin nhạy cảm, ghi nhớ các chuỗi hành vi, đưa ra dự đoán hoặc đề xuất dựa trên dữ liệu riêng tư – mà không hề có sự đồng thuận rõ ràng từ phía người dùng?
AI đang dần trở thành trung tâm của hệ điều hành, không chỉ đơn thuần là công cụ tra cứu hay ra lệnh bằng giọng nói. Tuy nhiên, để đạt được mức “thông minh” như mong muốn, AI cần tiếp cận khối lượng dữ liệu cá nhân khổng lồ – từ nhật ký cuộc gọi đến nội dung tin nhắn. Đây chính là cái giá của sự tiện lợi: Một khi chúng ta càng giao nhiều quyền cho AI, càng ít đi khả năng giám sát nó.
Việc Google khuyên người dùng không nên chia sẻ thông tin nhạy cảm với Gemini lại càng làm rõ mâu thuẫn này. Nếu người dùng không thể tin tưởng vào “trợ lý ảo” của mình, thì đó còn là trợ lý ở mức độ nào?
Thông báo về tính năng mới chỉ xuất hiện âm thầm qua email, thay vì công bố công khai trên blog hay trang chính thức. Việc thay đổi mang tính hệ thống như vậy lẽ ra phải đi kèm với một bản mô tả rõ ràng về các quyền truy cập, hệ quả bảo mật, cách điều chỉnh cài đặt – nhưng đã không được thực hiện.
Trong thời đại mà quyền riêng tư kỹ thuật số là yếu tố then chốt để xây dựng niềm tin, cách tiếp cận mập mờ như vậy dễ khiến Gemini – và cả Google – đối mặt với phản ứng tiêu cực từ cộng đồng.
Gemini AI, cũng như nhiều nền tảng trí tuệ nhân tạo khác, không còn là công nghệ "phụ trợ" mà đang chi phối nền tảng số của người dùng. Việc thay đổi quyền truy cập mà không kèm minh bạch giải thích không chỉ gây hoài nghi, mà còn đặt ra câu hỏi căn bản về quyền làm chủ dữ liệu cá nhân.
Người dùng không thể “nghỉ ngơi” khi AI làm việc thay mình – trừ khi họ hiểu rõ AI đang làm gì, với dữ liệu gì, và cho mục đích gì. Trước khi Gemini trở thành trợ lý vạn năng, nó cần phải là một trợ lý minh bạch và có thể kiểm soát được. Đó là điều kiện tiên quyết để xây dựng tương lai AI đáng tin cậy – thay vì đáng sợ.