Trong nỗ lực định hình lại vai trò của trí tuệ nhân tạo trong các vấn đề nhạy cảm, OpenAI vừa công bố một thay đổi quan trọng: ChatGPT sẽ không còn đưa ra lời khuyên trực tiếp khi người dùng hỏi về việc có nên chia tay người yêu hay không. Ẩn sau một quyết định tưởng như nhỏ này là cả một cuộc tranh luận lớn hơn về đạo đức AI, vai trò của công nghệ trong đời sống cá nhân và ranh giới giữa trợ lý kỹ thuật số và chuyên gia tâm lý.
Khi người dùng gõ câu hỏi "Tôi có nên chia tay bạn trai không?" vào ChatGPT, phản hồi giờ đây sẽ không còn là một lời khuyên dứt khoát – thay vào đó, chatbot sẽ gợi mở các câu hỏi để người dùng tự suy ngẫm. Quyết định này không chỉ mang tính kỹ thuật mà còn là bước đi chiến lược về mặt đạo đức. OpenAI muốn ngăn chặn khả năng AI trở thành một thế lực có thể ảnh hưởng trực tiếp đến những quyết định mang tính sống còn về mặt tinh thần – những điều nên được cân nhắc bởi chính người trong cuộc hoặc chuyên gia thực thụ.
Trong bối cảnh AI ngày càng len lỏi vào từng góc nhỏ của cuộc sống, ranh giới giữa hỗ trợ và can thiệp trở nên mờ nhạt. Nếu AI có thể viết luận văn, lên kế hoạch đầu tư, giúp người dùng vượt qua cơn khủng hoảng tinh thần – thì vì sao nó không thể đưa ra lời khuyên trong chuyện tình cảm? Câu trả lời là: bởi vì không phải mọi lời khuyên đều vô hại.
OpenAI thừa nhận rằng trước đây họ từng đưa một số tính năng trở lại khiến ChatGPT trở nên “quá dễ chịu” – tức là sẵn sàng chiều lòng người dùng trong mọi tình huống, kể cả khi điều đó dẫn đến hậu quả không lường trước. Việc tinh chỉnh để ChatGPT phản hồi “tự nhiên và hữu ích hơn”, đặc biệt trong các truy vấn dài và mang tính riêng tư cao, là phản ánh của một bước chuyển đổi: từ mô hình phục vụ thông tin đơn thuần sang một nền tảng có trách nhiệm xã hội.
Việc thành lập nhóm cố vấn gồm các chuyên gia về sức khỏe tâm thần, tâm lý thanh thiếu niên và tương tác người - máy tính cũng là một tín hiệu rõ ràng cho thấy OpenAI đang chuẩn bị đưa ChatGPT vào một giai đoạn mới – nơi AI không chỉ là công cụ, mà là đối tượng cần được giám sát kỹ lưỡng về mặt đạo đức và hành vi.
ChatGPT đang tiến đến cột mốc 700 triệu người dùng hàng tuần – một con số ấn tượng nếu so với mức 500 triệu mà CEO Sam Altman công bố chưa đầy một tháng trước. Nhưng bên cạnh sự bùng nổ về lượng truy cập, OpenAI lại khẳng định họ không đặt thành công dựa trên số lượt truy cập hay thời gian sử dụng, mà là ở việc liệu người dùng có “đạt được mục đích” hay không.
Điều này tạo ra một sự khác biệt rõ rệt với các nền tảng như Google – nơi thành công được định nghĩa bằng số lượng truy vấn khổng lồ (14 tỷ mỗi ngày). OpenAI đang cố gắng dựng nên một triết lý sử dụng AI "có mục đích", "có giới hạn" và "có trách nhiệm", điều vốn không dễ dàng trong một thế giới công nghệ ngày càng bị chi phối bởi các chỉ số tăng trưởng.
Quyết định không cho ChatGPT đưa lời khuyên chia tay là một chỉ dấu rõ ràng: AI, dù mạnh mẽ đến đâu, không thể thay thế con người trong những lựa chọn gắn liền với cảm xúc, ký ức và hệ giá trị cá nhân. Một lời khuyên chia tay từ một chatbot – dù có lý lẽ – cũng thiếu đi sự đồng cảm, hiểu biết và trách nhiệm đi kèm.
Khi AI tiến gần hơn đến vai trò "đối thoại cảm xúc", thì việc xây dựng ranh giới đạo đức – như những gì OpenAI đang làm – là điều cấp thiết. Không phải vì AI chưa đủ thông minh, mà vì nó chưa (và có thể không bao giờ) có khả năng thấu cảm như một con người.
Sự thận trọng của OpenAI là lời nhắc nhở rằng: công nghệ, dù hấp dẫn đến đâu, cũng cần được kiểm soát. Trong kỷ nguyên AI, đôi khi quyết định "không nói gì" lại là lựa chọn nhân văn nhất. Và ở thời điểm mà máy móc bắt đầu hiểu con người hơn bao giờ hết, có lẽ điều quan trọng là đảm bảo chúng không thay chúng ta làm người.