Nhiều người tiêu dùng say mê AI sáng tạo, sử dụng các công cụ mới cho mọi vấn đề cá nhân hoặc kinh doanh. Nhưng nhiều người bỏ qua những tác động tiềm ẩn về quyền riêng tư, điều này có thể rất đáng kể.
Từ ChatGPT của OpenAI đến Gemini của Google đến phần mềm Microsoft Copilot và Apple Intelligence mới, các công cụ AI dành cho người tiêu dùng đều có thể dễ dàng truy cập và sinh sôi nảy nở. Tuy nhiên, các công cụ này có các chính sách bảo mật khác nhau liên quan đến việc sử dụng dữ liệu người dùng và việc lưu giữ dữ liệu đó. Trong nhiều trường hợp, người tiêu dùng không biết dữ liệu của họ được sử dụng như thế nào hoặc có thể được sử dụng như thế nào.
Đó là lúc việc trở thành một người tiêu dùng thông thái trở nên cực kỳ quan trọng. Jodi Daniels, giám đốc điều hành và cố vấn quyền riêng tư tại Red Clover Advisors, chuyên tư vấn cho các công ty về các vấn đề quyền riêng tư, cho biết có những mức độ chi tiết khác nhau về những gì bạn có thể kiểm soát, tùy thuộc vào công cụ. Daniels nói: “Không có lựa chọn không tham gia chung trên tất cả các công cụ.
Sự phổ biến của các công cụ AI - và sự tích hợp của chúng vào rất nhiều hoạt động của người tiêu dùng trên máy tính cá nhân và điện thoại thông minh - khiến những câu hỏi này càng trở nên phù hợp hơn. Ví dụ, vài tháng trước, Microsoft đã phát hành chiếc Surface PC đầu tiên có nút Copilot chuyên dụng trên bàn phím để truy cập nhanh vào chatbot, thực hiện đúng lời hứa từ vài tháng trước đó. Về phần mình, tháng trước Apple đã vạch ra tầm nhìn của mình về AI - xoay quanh một số mẫu máy nhỏ hơn chạy trên các thiết bị và chip của Apple. Các giám đốc điều hành của công ty đã phát biểu công khai về tầm quan trọng của công ty đối với quyền riêng tư, đây có thể là một thách thức với các mô hình AI.
Dưới đây là một số cách người tiêu dùng có thể bảo vệ quyền riêng tư của họ trong thời đại mới của AI sáng tạo.
Hỏi AI những câu hỏi về quyền riêng tư mà nó phải có khả năng trả lời
Trước khi chọn một công cụ, người tiêu dùng nên đọc kỹ các chính sách quyền riêng tư liên quan. Thông tin của bạn được sử dụng như thế nào và nó có thể được sử dụng như thế nào? Có tùy chọn nào để tắt chia sẻ dữ liệu không? Có cách nào để hạn chế dữ liệu nào được sử dụng và dữ liệu được lưu giữ trong bao lâu không? Dữ liệu có thể bị xóa? Người dùng có phải thực hiện nhiều bước để tìm cài đặt chọn không tham gia không?
Theo các chuyên gia về quyền riêng tư, nó sẽ treo cờ đỏ nếu bạn không thể sẵn sàng trả lời những câu hỏi này hoặc tìm câu trả lời cho chúng trong chính sách quyền riêng tư của nhà cung cấp.
Daniels nói: “Một công cụ quan tâm đến quyền riêng tư sẽ cho bạn biết". Và nếu không, “Bạn phải có quyền sở hữu nó,” Daniels nói thêm. “Bạn không thể chỉ cho rằng công ty sẽ làm điều đúng đắn. Mọi công ty đều có những giá trị khác nhau và mọi công ty kiếm tiền cũng khác nhau.”
Cô đưa ra ví dụ về Grammarly, một công cụ chỉnh sửa được nhiều người tiêu dùng và doanh nghiệp sử dụng, với tư cách là một công ty giải thích rõ ràng ở một số vị trí trên trang web của mình về cách sử dụng dữ liệu.
Loại bỏ dữ liệu nhạy cảm khỏi các mô hình ngôn ngữ lớn
Một số người rất tin tưởng khi đưa dữ liệu nhạy cảm vào các mô hình AI tổng quát, nhưng Andrew Frost Moroz, người sáng lập Aloha Browser, một trình duyệt tập trung vào quyền riêng tư, khuyên mọi người không nên đưa bất kỳ loại dữ liệu nhạy cảm nào vì họ không thực sự biết nó có thể được sử dụng như thế nào hoặc có thể bị sử dụng sai mục đích.
Điều này đúng với tất cả các loại thông tin mà mọi người có thể nhập, cho dù đó là thông tin cá nhân hay liên quan đến công việc. Nhiều tập đoàn đã bày tỏ mối lo ngại đáng kể về việc nhân viên sử dụng mô hình AI để hỗ trợ công việc của họ, bởi vì người lao động có thể không xem xét cách mô hình đó sử dụng thông tin đó cho mục đích đào tạo. Nếu bạn đang nhập một tài liệu bí mật, mô hình AI hiện có quyền truy cập vào tài liệu đó, điều này có thể gây ra đủ loại lo ngại. Nhiều công ty sẽ chỉ chấp thuận việc sử dụng các phiên bản tùy chỉnh của các công cụ AI thế hệ thứ nhất nhằm duy trì tường lửa giữa thông tin độc quyền và các mô hình ngôn ngữ lớn.
Frost Moroz cho biết các cá nhân cũng nên thận trọng và không sử dụng các mô hình AI cho bất kỳ mục đích nào không công khai hoặc bạn không muốn chia sẻ với người khác dưới bất kỳ hình thức nào. Nhận thức về cách bạn đang sử dụng AI là rất quan trọng. Nếu bạn đang sử dụng nó để tóm tắt một bài viết từ Wikipedia, điều đó có thể không thành vấn đề. Nhưng nếu bạn đang sử dụng nó để tóm tắt một tài liệu pháp lý cá nhân chẳng hạn, thì điều đó là không nên. Hoặc giả sử bạn có hình ảnh của một tài liệu và bạn muốn sao chép một đoạn văn cụ thể. Bạn có thể yêu cầu AI đọc văn bản để bạn có thể sao chép nó. Ông nói: Khi làm như vậy, mô hình AI sẽ biết nội dung của tài liệu nên người tiêu dùng cần ghi nhớ điều đó.
Sử dụng tính năng chọn không tham gia do OpenAI, Google cung cấp
Mỗi công cụ AI thế hệ đều có chính sách bảo mật riêng và có thể có các tùy chọn từ chối. Ví dụ: Gemini cho phép người dùng tạo khoảng thời gian lưu giữ và xóa một số dữ liệu nhất định, cùng với các biện pháp kiểm soát hoạt động khác.
Người dùng có thể từ chối cho phép ChatGPT sử dụng dữ liệu của họ để đào tạo mô hình. Để thực hiện việc này, họ cần điều hướng đến biểu tượng hồ sơ ở phía dưới bên trái của trang và chọn Kiểm soát dữ liệu trong tiêu đề Cài đặt. Sau đó, họ cần tắt tính năng có nội dung “Cải thiện mô hình cho mọi người”. Theo Câu hỏi thường gặp trên trang web của OpenAI, mặc dù tính năng này bị tắt nhưng các cuộc hội thoại mới sẽ không được sử dụng để đào tạo các mô hình của ChatGPT.
Jacob Hoffman-Andrews, chuyên gia công nghệ cấp cao tại Electronic Frontier Foundation, một nhóm quyền kỹ thuật số phi lợi nhuận quốc tế, cho biết, không có lợi ích thực sự nào đối với người tiêu dùng khi cho phép gen AI đào tạo dữ liệu của họ và có những rủi ro vẫn đang được nghiên cứu.
Nếu dữ liệu cá nhân bị xuất bản không đúng cách trên web, người tiêu dùng có thể xóa dữ liệu đó và sau đó dữ liệu đó sẽ biến mất khỏi các công cụ tìm kiếm. Nhưng ông nói, việc đào tạo các mô hình AI lại là một trò chơi hoàn toàn khác. Ông nói, có thể có một số cách để giảm thiểu việc sử dụng một số thông tin nhất định khi nó ở trong mô hình AI, nhưng đó không phải là cách dễ dàng và cách thực hiện điều này một cách hiệu quả là một lĩnh vực đang được nghiên cứu tích cực.
Chỉ tham gia, chẳng hạn như với Microsoft Copilot, vì những lý do chính đáng
Các công ty đang tích hợp gen AI vào các công cụ hàng ngày mà mọi người sử dụng trong cuộc sống cá nhân và nghề nghiệp của họ. Ví dụ: Copilot dành cho Microsoft 365 hoạt động trong Word, Excel và PowerPoint để trợ giúp người dùng thực hiện các tác vụ như phân tích, tạo ý tưởng, tổ chức, v.v.
Đối với những công cụ này, Microsoft cho biết họ không chia sẻ dữ liệu của người tiêu dùng với bên thứ ba mà không được phép và không sử dụng dữ liệu khách hàng để đào tạo Copilot hoặc các tính năng AI của nó mà không có sự đồng ý.
Tuy nhiên, người dùng có thể chọn tham gia, nếu muốn, bằng cách đăng nhập vào trung tâm quản trị Power Platform, chọn cài đặt, cài đặt đối tượng thuê và bật chia sẻ dữ liệu cho Dynamics 365 Copilot và Power Platform Copilot AI. Chúng cho phép chia sẻ và lưu dữ liệu.
Ưu điểm của việc chọn tham gia bao gồm khả năng làm cho các tính năng hiện có trở nên hiệu quả hơn. Tuy nhiên, nhược điểm là người tiêu dùng mất quyền kiểm soát cách sử dụng dữ liệu của họ, đây là một điều quan trọng cần cân nhắc, các chuyên gia về quyền riêng tư cho biết.
Tin vui là người tiêu dùng đã chọn tham gia Microsoft có thể rút lại sự đồng ý của mình bất kỳ lúc nào. Người dùng có thể thực hiện việc này bằng cách truy cập trang cài đặt đối tượng thuê trong Cài đặt trong trung tâm quản trị Power Platform và tắt tính năng chia sẻ dữ liệu cho nút chuyển đổi Tính năng AI của Dynamics 365 Copilot và Power Platform Copilot.
Đặt khoảng thời gian lưu giữ ngắn cho AI tổng hợp cho tìm kiếm
Người tiêu dùng có thể không suy nghĩ nhiều trước khi tìm kiếm thông tin bằng AI, sử dụng nó giống như một công cụ tìm kiếm để tạo ra thông tin và ý tưởng. Tuy nhiên, ngay cả việc tìm kiếm một số loại thông tin nhất định bằng gen AI cũng có thể xâm phạm quyền riêng tư của một người, do đó, cũng có những phương pháp hay nhất khi sử dụng các công cụ cho mục đích đó.
Hoffman-Andrews cho biết, nếu có thể, hãy đặt khoảng thời gian lưu giữ ngắn cho công cụ gen AI. Và xóa các cuộc trò chuyện, nếu có thể, sau khi bạn đã nhận được thông tin cần tìm. Ông nói, các công ty vẫn có nhật ký máy chủ, nhưng nó có thể giúp giảm nguy cơ bên thứ ba truy cập vào tài khoản của bạn. Nó cũng có thể làm giảm nguy cơ thông tin nhạy cảm trở thành một phần của quá trình đào tạo mô hình. “Nó thực sự phụ thuộc vào cài đặt quyền riêng tư của trang web cụ thể.”