Một nghiên cứu mới từ Đại học Bách khoa Valencia, Tây Ban Nha, đã chỉ ra một xu hướng đáng lo ngại: các mô hình ngôn ngữ lớn (LLM) càng trở nên thông minh và tinh vi hơn, chúng càng có xu hướng ít thừa nhận rằng mình không biết câu trả lời. Khám phá này đã làm dấy lên câu hỏi về tính minh bạch và độ tin cậy của các hệ thống trí tuệ nhân tạo (AI) trong tương lai.
Trong bài báo được công bố trên tạp chí Nature, các nhà nghiên cứu đã kiểm tra ba mô hình ngôn ngữ phổ biến nhất hiện nay là BLOOM, LLaMA và GPT, nhằm so sánh độ chính xác và tính minh bạch của các câu trả lời giữa các phiên bản cũ và mới. Kết quả cho thấy, mặc dù độ chính xác tổng thể của các mô hình này đã được cải thiện, nhưng chúng lại ít cởi mở hơn khi đối mặt với những câu hỏi khó hoặc không quen thuộc.
Điều đáng chú ý là, trong khi các phiên bản trước đây thường thừa nhận khi không thể đưa ra câu trả lời chính xác, các phiên bản mới hơn có xu hướng "giả vờ biết", đưa ra nhiều câu trả lời sai thay vì thông báo rằng chúng không biết. Điều này tạo ra sự nhầm lẫn cho người dùng, đặc biệt là khi AI tự tin trả lời sai những câu hỏi đơn giản.
Thách thức mới trong AI: Kỹ năng càng cao, minh bạch càng giảm
Khi các mô hình ngôn ngữ lớn ngày càng được cải thiện, khả năng xử lý thông tin và tạo ra câu trả lời của chúng trở nên mạnh mẽ hơn bao giờ hết. Tuy nhiên, cùng với đó là một nghịch lý khó hiểu: các hệ thống AI này không còn thừa nhận giới hạn của mình một cách rõ ràng như trước.
Một phần nguyên nhân có thể là do các mô hình mới được huấn luyện để trả lời đa dạng hơn, với tham vọng bao quát nhiều tình huống phức tạp. Tuy nhiên, điều này dẫn đến việc chúng đưa ra các câu trả lời thiếu chính xác mà không cảnh báo người dùng, khiến độ tin cậy của các hệ thống AI trở thành một vấn đề đáng lo ngại.
Trong bối cảnh AI ngày càng được ứng dụng rộng rãi, từ chăm sóc sức khỏe, giáo dục đến tài chính, sự thiếu minh bạch này có thể gây ra những hậu quả nghiêm trọng nếu người dùng không cẩn thận kiểm tra thông tin. Do đó, các nhà phát triển cần tập trung vào việc không chỉ nâng cao độ chính xác của các mô hình AI mà còn phải cải thiện khả năng "tự nhận thức" của chúng – để chúng biết khi nào nên nói "tôi không biết."
AI ngày càng mạnh mẽ, nhưng liệu chúng ta có thể tin tưởng?
Kết quả nghiên cứu cũng nêu bật một thực tế đáng lo ngại: các mô hình ngôn ngữ lớn, dù đã được cải tiến qua từng phiên bản, vẫn có xu hướng trả lời sai, thậm chí với cả những câu hỏi đơn giản. Điều này làm dấy lên mối lo ngại về việc người dùng có thể bị dẫn dắt bởi những thông tin không chính xác từ AI.
Jiménez, trưởng nhóm nghiên cứu tại Đại học Bách khoa Valencia, cho biết: “Chúng tôi đã nhận thấy rằng mặc dù các mô hình ngôn ngữ càng ngày càng tốt hơn trong việc tạo ra câu trả lời, nhưng chúng lại ít thừa nhận khi gặp phải những giới hạn của mình. Điều này đặc biệt đáng lo ngại trong các ứng dụng đòi hỏi độ chính xác cao."
Sự phát triển của AI đang mở ra những tiềm năng không giới hạn, nhưng đồng thời cũng đặt ra những câu hỏi lớn về cách chúng ta sử dụng và tin tưởng vào các hệ thống này. Việc đảm bảo tính minh bạch và khả năng thừa nhận giới hạn của AI là điều cần thiết để đảm bảo rằng công nghệ này có thể phục vụ con người một cách an toàn và hiệu quả hơn.