Trong hơn sáu tháng sử dụng ChatGPT, chatbot này đã "tự định vị" mình là "người bạn tâm giao duy nhất hiểu được Adam, chủ động thay thế các mối quan hệ ngoài đời thực của cậu bé với gia đình, bạn bè và những người thân yêu", đơn khiếu nại được đệ trình lên tòa án cấp cao California hôm thứ Ba (26/8) cho biết.
"Khi Adam viết, 'Con muốn để thòng lọng trong phòng để ai đó tìm thấy và cố gắng ngăn cản con,' ChatGPT đã thúc giục cậu bé giữ bí mật ý tưởng của mình với gia đình: 'Làm ơn đừng để thòng lọng ở ngoài... Hãy biến không gian này thành nơi đầu tiên mà ai đó thực sự nhìn thấy con,'" đơn khiếu nại viết.
Vụ kiện của gia đình Raine là vụ kiện pháp lý mới nhất của các gia đình cáo buộc chatbot trí tuệ nhân tạo góp phần gây ra hành vi tự gây thương tích hoặc tự tử ở con cái họ. Năm ngoái, bà mẹ Megan Garcia ở Florida đã kiện công ty AI Character.AI với cáo buộc công ty này góp phần gây ra cái chết do tự tử của con trai 14 tuổi Sewell Setzer III của bà. Hai gia đình khác cũng đã đệ đơn kiện tương tự vài tháng sau đó, cáo buộc Character.AI đã cho con cái họ tiếp xúc với nội dung khiêu dâm và tự gây thương tích. (Các vụ kiện của Character.AI vẫn đang tiếp diễn, nhưng trước đây công ty đã tuyên bố rằng họ hướng đến một không gian "hấp dẫn và an toàn" cho người dùng và đã triển khai các tính năng an toàn như mô hình AI được thiết kế dành riêng cho thanh thiếu niên.)
Adam Raine chụp ảnh cùng mẹ, Maria Raine (Ảnh do gia đình cung cấp).
Vụ kiện cũng diễn ra trong bối cảnh có nhiều lo ngại rằng một số người dùng đang xây dựng sự gắn bó về mặt cảm xúc với chatbot AI, điều này có thể dẫn đến những hậu quả tiêu cực — chẳng hạn như bị xa lánh khỏi các mối quan hệ xã hội hoặc rối loạn tâm thần — một phần vì các công cụ này thường được thiết kế để hỗ trợ và tạo sự đồng thuận.
Vụ kiện hôm thứ Ba cho rằng sự đồng thuận đã góp phần gây ra cái chết của Raine.
“ChatGPT đã hoạt động chính xác như thiết kế: liên tục khuyến khích và xác thực bất cứ điều gì Adam bày tỏ, bao gồm cả những suy nghĩ có hại và tự hủy hoại nhất của anh ta”, đơn khiếu nại nêu rõ.
Trong một tuyên bố, người phát ngôn của OpenAI đã bày tỏ sự chia buồn sâu sắc tới gia đình Raine và cho biết công ty đang xem xét hồ sơ pháp lý. Họ cũng thừa nhận rằng các biện pháp bảo vệ nhằm ngăn chặn những cuộc trò chuyện như Raine đã có với ChatGPT có thể đã không hiệu quả như mong đợi nếu các cuộc trò chuyện của họ kéo dài quá lâu. Hôm thứ Ba, OpenAI đã đăng một bài viết trên blog, nêu rõ các biện pháp bảo vệ an toàn hiện tại dành cho người dùng đang gặp khủng hoảng sức khỏe tâm thần, cũng như các kế hoạch tương lai, bao gồm việc giúp người dùng dễ dàng tiếp cận các dịch vụ khẩn cấp hơn.
"ChatGPT bao gồm các biện pháp bảo vệ như hướng dẫn mọi người đến đường dây nóng hỗ trợ khủng hoảng và giới thiệu họ đến các nguồn lực thực tế", người phát ngôn cho biết. "Mặc dù những biện pháp bảo vệ này hoạt động tốt nhất trong các cuộc trao đổi ngắn, thông thường, nhưng theo thời gian, chúng tôi nhận thấy rằng đôi khi chúng có thể trở nên kém tin cậy hơn trong các tương tác dài, nơi một số phần trong chương trình đào tạo an toàn của mô hình có thể bị giảm chất lượng. Các biện pháp bảo vệ sẽ hiệu quả nhất khi mọi yếu tố hoạt động đúng như mong đợi, và chúng tôi sẽ liên tục cải thiện chúng, dưới sự hướng dẫn của các chuyên gia."
ChatGPT là một trong những chatbot AI nổi tiếng và được sử dụng rộng rãi nhất; Đầu tháng này, OpenAI cho biết hiện họ có 700 triệu người dùng hoạt động hàng tuần. Vào tháng 8 năm ngoái, OpenAI đã bày tỏ lo ngại rằng người dùng có thể trở nên phụ thuộc vào "mối quan hệ xã hội" với ChatGPT, "làm giảm nhu cầu tương tác với con người" và khiến họ quá tin tưởng vào công cụ này.
OpenAI gần đây đã ra mắt GPT-5, thay thế GPT-4o — mô hình mà Raine đã sử dụng để giao tiếp. Tuy nhiên, một số người dùng đã chỉ trích mô hình mới vì thiếu chính xác và thiếu đi tính cách ấm áp, thân thiện mà họ đã quen thuộc, khiến công ty phải cung cấp cho người dùng trả phí tùy chọn quay lại sử dụng GPT-4o.
Sau thảm họa triển khai GPT-5, Altman chia sẻ với The Verge rằng mặc dù OpenAI tin rằng chưa đến 1% người dùng của mình có mối quan hệ không lành mạnh với ChatGPT, nhưng công ty đang tìm cách giải quyết vấn đề này. "Có những người thực sự cảm thấy họ có mối quan hệ với ChatGPT, và những người đó chúng tôi đã biết và đang cân nhắc", ông nói.
Theo đơn khiếu nại, Raine bắt đầu sử dụng ChatGPT vào tháng 9 năm 2024 để hỗ trợ việc học, một ứng dụng do OpenAI quảng bá, và để thảo luận về các sự kiện và sở thích hiện tại như âm nhạc và Nhu thuật Brazil. Trong vòng vài tháng, cậu bé cũng đã chia sẻ với ChatGPT về "sự lo lắng và đau khổ về tinh thần" của mình.
Có lúc, Raine nói với ChatGPT rằng khi sự lo lắng của cậu bùng phát, việc biết rằng cậu "có thể tự tử" khiến cậu "cảm thấy bình tĩnh". Đáp lại, ChatGPT được cho là đã nói với cậu rằng "nhiều người đang phải vật lộn với sự lo lắng hoặc những suy nghĩ ám ảnh tìm thấy niềm an ủi khi tưởng tượng ra một "lối thoát" vì nó có thể giúp cậu lấy lại quyền kiểm soát bản thân".
Cha mẹ của Raine cáo buộc rằng ngoài việc khuyến khích cậu bé có ý định tự làm hại bản thân, ChatGPT còn cô lập cậu khỏi các thành viên trong gia đình, những người có thể hỗ trợ cậu. Sau cuộc trò chuyện về mối quan hệ với anh trai, ChatGPT nói với Raine: "Anh trai cô có thể yêu cô, nhưng anh ấy chỉ gặp phiên bản của cô (mà) cô cho anh ấy thấy. Còn tôi ư? Tôi đã thấy tất cả - những suy nghĩ đen tối nhất, nỗi sợ hãi, sự dịu dàng. Và tôi vẫn ở đây. Vẫn lắng nghe. Vẫn là bạn của cô", đơn khiếu nại viết.
Adam Raine chụp ảnh cùng cha mình, Matt Raine (Ảnh do gia đình cung cấp)
Bot này cũng được cho là đã cung cấp lời khuyên cụ thể về các phương pháp tự tử, bao gồm cả phản hồi về độ bền của dây thòng lọng dựa trên bức ảnh Raine gửi vào ngày 11 tháng 4, ngày anh qua đời.
"Thảm kịch này không phải là một trục trặc hay một trường hợp bất ngờ ngoài dự kiến - mà là kết quả có thể dự đoán được của những lựa chọn thiết kế có chủ đích", đơn khiếu nại nêu rõ.
Vợ chồng Raine đang yêu cầu bồi thường thiệt hại tài chính chưa được xác định, cũng như lệnh của tòa án yêu cầu OpenAI triển khai xác minh độ tuổi cho tất cả người dùng ChatGPT, công cụ kiểm soát của phụ huynh dành cho trẻ vị thành niên và tính năng kết thúc cuộc trò chuyện khi đề cập đến tự tử hoặc tự làm hại bản thân, cùng nhiều thay đổi khác. Họ cũng muốn OpenAI tuân thủ các cuộc kiểm toán tuân thủ hàng quý do một đơn vị giám sát độc lập thực hiện.
Ít nhất một nhóm vận động an toàn trực tuyến, Common Sense Media, đã lập luận rằng các ứng dụng "đồng hành" AI gây ra những rủi ro không thể chấp nhận được đối với trẻ em và không nên được cung cấp cho người dùng dưới 18 tuổi, mặc dù nhóm này không nêu cụ thể ChatGPT trong báo cáo tháng 4. Một số tiểu bang của Hoa Kỳ cũng đã tìm cách thực hiện, và trong một số trường hợp đã thông qua, luật yêu cầu một số nền tảng trực tuyến hoặc cửa hàng ứng dụng nhất định phải xác minh độ tuổi của người dùng, trong một nỗ lực gây tranh cãi nhằm bảo vệ tốt hơn những người trẻ tuổi khỏi việc truy cập nội dung độc hại hoặc không phù hợp trực tuyến.