Đầu năm là thời điểm tuyệt vời để thực hiện một số biện pháp vệ sinh mạng cơ bản. Chúng ta đều được yêu cầu vá lỗi, thay đổi mật khẩu và cập nhật phần mềm. Nhưng một mối lo ngại ngày càng trở nên nổi cộm là việc tích hợp AI có khả năng xâm phạm quyền riêng tư vào các chương trình đôi khi diễn ra một cách lặng lẽ.
Lynette Owens, phó chủ tịch phụ trách giáo dục người tiêu dùng toàn cầu tại công ty an ninh mạng Trend Micro, cho biết: "Việc tích hợp nhanh chóng AI vào phần mềm và dịch vụ của chúng ta đã và sẽ tiếp tục đặt ra những câu hỏi quan trọng về chính sách quyền riêng tư trước kỷ nguyên AI". Nhiều chương trình mà chúng ta sử dụng ngày nay - cho dù đó là email, sổ sách kế toán hay công cụ năng suất, cũng như phương tiện truyền thông xã hội và ứng dụng phát trực tuyến - có thể được quản lý bởi các chính sách quyền riêng tư không rõ ràng về việc dữ liệu cá nhân của chúng ta có thể được sử dụng để đào tạo các mô hình AI hay không.
"Điều này khiến tất cả chúng ta đều dễ bị sử dụng thông tin cá nhân của mình mà không có sự đồng ý phù hợp. Đã đến lúc mọi ứng dụng, trang web hoặc dịch vụ trực tuyến phải xem xét kỹ lưỡng dữ liệu mà họ đang thu thập, họ đang chia sẻ dữ liệu đó với ai, họ chia sẻ dữ liệu đó như thế nào và liệu dữ liệu đó có thể được truy cập để đào tạo các mô hình AI hay không", Owens cho biết. “Còn rất nhiều việc phải làm để bắt kịp”.
AI đã hiện diện trong cuộc sống trực tuyến hàng ngày của chúng ta như thế nào
Owens cho biết các vấn đề tiềm ẩn chồng chéo với hầu hết các chương trình và ứng dụng mà chúng ta sử dụng hàng ngày. “Nhiều nền tảng đã tích hợp AI vào hoạt động của họ trong nhiều năm, từ rất lâu trước khi AI trở thành một thuật ngữ thông dụng”, bà cho biết.
Ví dụ, Owens chỉ ra rằng Gmail đã sử dụng AI để lọc thư rác và dự đoán văn bản với tính năng “Soạn thông minh”. “Và các dịch vụ phát trực tuyến như Netflix dựa vào AI để phân tích thói quen xem và đề xuất nội dung”, Owens cho biết. Các nền tảng truyền thông xã hội như Facebook và Instagram từ lâu đã sử dụng AI để nhận dạng khuôn mặt trong ảnh và nguồn cấp dữ liệu nội dung được cá nhân hóa.
“Mặc dù các công cụ này mang lại sự tiện lợi, nhưng người tiêu dùng nên cân nhắc đến những đánh đổi tiềm ẩn về quyền riêng tư, chẳng hạn như lượng dữ liệu cá nhân đang được thu thập và cách dữ liệu đó được sử dụng để đào tạo các hệ thống AI. Mọi người nên xem xét kỹ lưỡng các cài đặt quyền riêng tư, hiểu dữ liệu nào đang được chia sẻ và thường xuyên kiểm tra các bản cập nhật cho các điều khoản dịch vụ”, Owens cho biết.
Một công cụ đã được đưa vào diện giám sát đặc biệt là trải nghiệm kết nối của Microsoft, đã có từ năm 2019 và được kích hoạt với tùy chọn từ chối tham gia. Gần đây, công ty cũng như một số chuyên gia an ninh mạng bên ngoài đã xem xét vấn đề này đã nêu bật trong các báo cáo của báo chí - không chính xác, theo công ty cũng như một số chuyên gia an ninh mạng bên ngoài đã xem xét vấn đề này - như một tính năng mới hoặc đã thay đổi cài đặt. Bỏ qua các tiêu đề giật gân, các chuyên gia về quyền riêng tư lo ngại rằng những tiến bộ trong AI có thể dẫn đến khả năng dữ liệu và từ ngữ trong các chương trình như Microsoft Word được sử dụng theo cách mà cài đặt quyền riêng tư không bao gồm đầy đủ.
"Khi các công cụ như trải nghiệm kết nối phát triển, ngay cả khi cài đặt quyền riêng tư cơ bản không thay đổi, thì tác động của việc sử dụng dữ liệu có thể rộng hơn nhiều", Owens cho biết.
Một phát ngôn viên của Microsoft đã viết trong một tuyên bố rằng, Microsoft không sử dụng dữ liệu khách hàng từ các ứng dụng thương mại và dành cho người tiêu dùng Microsoft 365 để đào tạo các mô hình ngôn ngữ lớn cơ bản. Ông nói thêm rằng trong một số trường hợp nhất định, khách hàng có thể đồng ý sử dụng dữ liệu của họ cho các mục đích cụ thể, chẳng hạn như phát triển mô hình tùy chỉnh được một số khách hàng thương mại yêu cầu rõ ràng. Ngoài ra, cài đặt này còn kích hoạt các tính năng được hỗ trợ bởi đám mây mà nhiều người mong đợi từ các công cụ năng suất như đồng tác giả theo thời gian thực, lưu trữ đám mây và các công cụ như Trình chỉnh sửa trong Word cung cấp các gợi ý về chính tả và ngữ pháp.
Cài đặt quyền riêng tư mặc định là một vấn đề
Ted Miracco, CEO của công ty phần mềm bảo mật Approov, cho biết các tính năng như trải nghiệm được kết nối của Microsoft là con dao hai lưỡi — lời hứa về năng suất được nâng cao nhưng lại đưa ra những cảnh báo đáng kể về quyền riêng tư. Miracco cho biết trạng thái mặc định của cài đặt có thể khiến mọi người lựa chọn thứ mà họ không nhất thiết phải biết, chủ yếu liên quan đến việc thu thập dữ liệu và các tổ chức cũng có thể muốn suy nghĩ kỹ trước khi bật tính năng này.
Miracco cho biết "Sự đảm bảo của Microsoft chỉ mang lại sự cứu trợ một phần, nhưng vẫn chưa đủ để giảm bớt một số lo ngại thực sự về quyền riêng tư".
Theo Kaveh Vadat, người sáng lập RiseOpp, một công ty tiếp thị SEO, thì nhận thức có thể là vấn đề riêng của nó. Vahdat cho biết "Việc mặc định kích hoạt sẽ thay đổi đáng kể động lực". "Việc tự động kích hoạt các tính năng này, ngay cả khi có ý định tốt, về cơ bản sẽ đặt gánh nặng lên người dùng để xem xét và sửa đổi cài đặt quyền riêng tư của họ, điều này có thể gây khó chịu hoặc thao túng đối với một số người". Quan điểm của ông là các công ty cần minh bạch hơn, chứ không phải ít hơn, trong một môi trường mà có rất nhiều sự ngờ vực và ngờ vực liên quan đến AI.
Các công ty bao gồm Microsoft nên nhấn mạnh vào việc từ chối mặc định thay vì lựa chọn tham gia và có thể cung cấp thông tin chi tiết hơn, không mang tính kỹ thuật về cách xử lý nội dung cá nhân vì nhận thức có thể trở thành hiện thực. "Ngay cả khi công nghệ hoàn toàn an toàn, nhận thức của công chúng không chỉ được định hình bởi các sự kiện mà còn bởi nỗi sợ hãi và giả định — đặc biệt là trong kỷ nguyên AI, nơi người dùng thường cảm thấy bất lực", ông nói.
Theo Jochem Hummel, phó giáo sư về hệ thống thông tin và quản lý tại Trường Kinh doanh Warwick thuộc Đại học Warwick ở Anh, các thiết lập mặc định cho phép chia sẻ có ý nghĩa vì lý do kinh doanh nhưng lại không tốt cho quyền riêng tư của người tiêu dùng.
Hummel cho biết, các công ty có thể cải tiến sản phẩm của mình và duy trì khả năng cạnh tranh bằng cách chia sẻ nhiều dữ liệu hơn theo mặc định. Tuy nhiên, theo quan điểm của người dùng, việc ưu tiên quyền riêng tư bằng cách áp dụng mô hình lựa chọn tham gia để chia sẻ dữ liệu sẽ là "một cách tiếp cận có đạo đức hơn", ông cho biết. Và miễn là các tính năng bổ sung được cung cấp thông qua việc thu thập dữ liệu không phải là điều bắt buộc, người dùng có thể lựa chọn tính năng nào phù hợp hơn với sở thích của họ.
Hummel cho biết, có những lợi ích thực sự đối với sự đánh đổi hiện tại giữa các công cụ được tăng cường AI và quyền riêng tư, dựa trên những gì ông thấy trong bài làm của sinh viên. Hummel cho biết những sinh viên lớn lên với camera web, phát sóng trực tiếp trên phương tiện truyền thông xã hội theo thời gian thực và công nghệ toàn diện thường ít quan tâm đến quyền riêng tư hơn và đang nhiệt tình đón nhận các công cụ này. Ông cho biết: "Ví dụ, sinh viên của tôi đang tạo ra các bài thuyết trình tốt hơn bao giờ hết".
Quản lý rủi ro
Trong các lĩnh vực như luật bản quyền, nỗi lo về việc sao chép hàng loạt của LLM đã bị thổi phồng quá mức, theo Kevin Smith, giám đốc thư viện tại Cao đẳng Colby, nhưng sự phát triển của AI có giao thoa với các mối quan tâm cốt lõi về quyền riêng tư.
Smith cho biết: "Nhiều mối quan tâm về quyền riêng tư hiện đang được nêu ra về AI thực ra đã tồn tại trong nhiều năm; việc triển khai nhanh chóng AI được đào tạo theo mô hình ngôn ngữ lớn chỉ tập trung sự chú ý vào một số vấn đề đó". Ông nói thêm: "Thông tin cá nhân liên quan đến các mối quan hệ, vì vậy rủi ro mà các mô hình AI có thể phát hiện ra dữ liệu an toàn hơn trong một hệ thống 'tĩnh' hơn là sự thay đổi thực sự mà chúng ta cần tìm cách quản lý".
Trong hầu hết các chương trình, việc tắt các tính năng AI là một tùy chọn ẩn trong cài đặt. Ví dụ: với các trải nghiệm được kết nối, hãy mở một tài liệu rồi nhấp vào "tệp", sau đó đi tới "tài khoản" rồi tìm cài đặt quyền riêng tư. Khi vào đó, hãy đi tới "quản lý cài đặt" và cuộn xuống các trải nghiệm được kết nối. Nhấp vào hộp để tắt. Sau khi thực hiện, Microsoft cảnh báo: "Nếu bạn tắt tùy chọn này, một số trải nghiệm có thể không khả dụng với bạn". Microsoft cho biết việc bật cài đặt sẽ cho phép giao tiếp, cộng tác và gợi ý AI nhiều hơn.
Trong Gmail, bạn cần mở ứng dụng, chạm vào menu, sau đó vào cài đặt, sau đó nhấp vào tài khoản bạn muốn thay đổi, rồi cuộn đến phần "chung" và bỏ chọn các hộp bên cạnh các "Tính năng thông minh" và tùy chọn cá nhân hóa khác nhau.
Như nhà cung cấp an ninh mạng Malwarebytes đã nói trong bài đăng trên blog về tính năng của Microsoft: "tắt tùy chọn đó có thể dẫn đến mất một số chức năng nếu bạn đang làm việc trên cùng một tài liệu với những người khác trong tổ chức của mình. ... Nếu bạn muốn tắt các cài đặt này vì lý do riêng tư và dù sao bạn cũng không sử dụng chúng nhiều, hãy làm như vậy. Tất cả các cài đặt đều có thể được tìm thấy trong Cài đặt quyền riêng tư vì một lý do nào đó. Nhưng tôi không tìm thấy bất kỳ dấu hiệu nào cho thấy những trải nghiệm được kết nối này được sử dụng để đào tạo các mô hình AI".
Mặc dù các hướng dẫn này khá dễ thực hiện và việc tìm hiểu thêm về những gì bạn đã đồng ý có thể là một lựa chọn tốt, nhưng một số chuyên gia cho rằng người tiêu dùng không nên có trách nhiệm hủy kích hoạt các cài đặt này. “Khi các công ty triển khai các tính năng như thế này, họ thường trình bày chúng như là các lựa chọn tham gia để nâng cao chức năng, nhưng người dùng có thể không hiểu đầy đủ về phạm vi những gì họ đồng ý”, Wes Chaar, một chuyên gia về quyền riêng tư dữ liệu cho biết.
“Điểm mấu chốt của vấn đề nằm ở những tiết lộ mơ hồ và thiếu sự giao tiếp rõ ràng về những gì ‘kết nối’ đòi hỏi và mức độ phân tích hoặc lưu trữ nội dung cá nhân của họ”, Chaar cho biết. “Đối với những người không am hiểu công nghệ, điều này có thể ví như việc mời một trợ lý hữu ích vào nhà bạn, chỉ để sau đó biết rằng họ đã ghi chú các cuộc trò chuyện riêng tư của bạn để làm tài liệu hướng dẫn đào tạo”.
Quyết định quản lý, hạn chế hoặc thậm chí thu hồi quyền truy cập vào dữ liệu nhấn mạnh sự mất cân bằng trong hệ sinh thái kỹ thuật số hiện tại. Chaar cho biết “Nếu không có các hệ thống mạnh mẽ ưu tiên sự đồng ý của người dùng và cung cấp quyền kiểm soát, cá nhân sẽ dễ bị tổn thương khi dữ liệu của họ bị sử dụng lại theo những cách mà họ không lường trước hoặc không được hưởng lợi”.