Trong thời đại công nghệ phát triển mạnh mẽ, chatbot AI, như ChatGPT, đã trở thành công cụ phổ biến hỗ trợ người dùng trong nhiều lĩnh vực, từ tư vấn sức khỏe đến giải quyết vấn đề cá nhân. Tuy nhiên, chuyên gia cảnh báo người dùng cần hết sức thận trọng khi chia sẻ thông tin với các hệ thống AI này, đặc biệt là những dữ liệu nhạy cảm như tình hình sức khỏe và thông tin cá nhân.
Theo một khảo sát gần đây của Cleveland Clinic, một trong những tổ chức y tế lớn và uy tín nhất thế giới, khoảng 20% người dân Mỹ đã từng tham khảo chatbot AI về các vấn đề sức khỏe. Cũng theo thống kê từ Tebra, có đến 25% người Mỹ cho rằng sử dụng chatbot còn thuận tiện hơn tham gia các buổi trị liệu tâm lý. Tuy nhiên, sự tiện lợi này đi kèm với những rủi ro không thể coi nhẹ.
Một trong những cảnh báo đáng chú ý đến từ giới chuyên gia là không nên chia sẻ quá nhiều thông tin với chatbot AI, đặc biệt là các dữ liệu về sức khỏe. Các chatbot như ChatGPT không phải là công cụ được thiết kế để tuân thủ các quy định bảo mật theo Đạo luật về trách nhiệm giải trình và bảo vệ thông tin bảo hiểm y tế (HIPAA). Điều này có nghĩa là, người dùng không nên dùng các hệ thống này để tóm tắt bệnh án, xin tư vấn về sức khỏe hay cung cấp quyền truy cập vào thông tin y tế cá nhân.
Ngoài ra, những thông tin khác mà người dùng cần tránh chia sẻ với AI bao gồm các dữ liệu đăng nhập, thông tin tài chính, câu trả lời cho các câu hỏi bảo mật, và các chi tiết cá nhân như tên, số điện thoại, địa chỉ. Chuyên gia về bảo mật, Stan Kaminsky từ Kaspersky, khuyến cáo rằng bất cứ thông tin nào bạn cung cấp cho chatbot đều có thể bị lạm dụng. Ông nhấn mạnh: "Đừng bao giờ chia sẻ mật khẩu, số hộ chiếu, thẻ ngân hàng, hoặc bất kỳ thông tin cá nhân nào của bạn, công ty hay khách hàng trong cuộc trò chuyện với AI."
Để bảo vệ thông tin cá nhân, Kaminsky đề xuất người dùng có thể thay thế những dữ liệu nhạy cảm bằng các ký tự thay thế như dấu sao hoặc từ "đã xóa" trong các yêu cầu. Ngoài ra, việc chia sẻ thông tin bảo mật từ nơi làm việc cũng cần phải hết sức thận trọng. Một số người dùng có thể muốn tải lên tài liệu để yêu cầu tóm tắt nội dung, nhưng điều này có thể dẫn đến rủi ro lộ lọt dữ liệu quan trọng, như tài sản sở hữu trí tuệ, bí mật thương mại, hoặc thông tin về đội ngũ nhân viên.
"Việc tải lên các tài liệu nhạy cảm có thể dễ dàng dẫn đến việc rò rỉ thông tin như ngày phát hành sản phẩm mới hoặc bảng lương của nhân viên. Đây là những dữ liệu mà AI không được phép tiếp cận," Kaminsky khuyến cáo.
Mặc dù trí tuệ nhân tạo mang đến nhiều tiện ích, nhưng việc chia sẻ quá nhiều thông tin cá nhân hoặc nhạy cảm có thể tạo ra nguy cơ bảo mật nghiêm trọng. Chuyên gia khuyến cáo rằng, người dùng cần hết sức thận trọng khi sử dụng các chatbot AI, đồng thời chỉ chia sẻ những thông tin cần thiết và có sự giám sát chặt chẽ để bảo vệ quyền riêng tư của bản thân và tổ chức.