Các phiên bản chatbot AI ngày càng thông minh đang trở nên ít đáng tin cậy hơn, bởi vì chúng có xu hướng tạo ra câu trả lời sai hoặc bịa ra những lời nói dối thuyết phục nhất thay vì tránh né hoặc từ chối những câu hỏi mà chúng không biết rõ.
Trong nghiên cứu được công bố trên tạp chí Nature vào ngày 25/9, Hernández-Orallo và các cộng sự tại Viện Nghiên cứu trí tuệ nhân tạo Valencia (Tây Ban Nha) đã tiến hành xem xétcác mô hình ngôn ngữ lớn (LLM) ở thời điểm hiện tại bao gồm GPT của OpenAI, LLaMA của Meta và BLOOM của BigScience.
Họ thử nghiệm các mô hình AI với hàng nghìn câu hỏi về số học, phép đảo chữ, địa lý, khoa học,... Họ cũng đánh giá độ khó của các câu hỏi theo cảm nhận của con người.
Kết quả cho thấy các mô hình AI càng lớn – xét về mặt tham số, dữ liệu đào tạo và các yếu tố khác – thì chúng càng trả lời chính xác hơn ở các câu hỏi dễ, do chúng đã được tinh chỉnh và huấn luyện với các phương pháp hiện đại, chẳng hạn như học từ phản hồi của con người.
Nhưng xét về tổng thể, những mô hình AI này trở nên ít đáng tin cậy hơn, bởi vì chúng có xu hướng trả lời mọi câu hỏi, kể cả những câu hỏi khó, ngay cả khi không có đủ thông tin hoặc khả năng để đưa ra câu trả lời chính xác. Thay vì từ chối trả lời hoặc thừa nhận không biết, các mô hình mới thường cố gắng đáp ứng mọi yêu cầu, dẫn đến việc tạo ra nhiều câu trả lời sai hơn.
“Với tôi, điều đó khá giống với những gì mà chúng ta gọi là nói dối. AI đang trở nên tốt hơn trong việc giả vờ hiểu biết”, Mike Hicks, nhà nghiên cứu tại Đại học Glasgow (Anh), nhận định. Thậm chí, các mô hình AI thỉnh thoảng vẫn mắc lỗi ngay cả với những câu hỏi dễ, nghĩa là không có “khu vực an toàn” nào mà người dùng có thể hoàn toàn tin tưởng vào câu trả lời.
Nguồn: Nature, Futurism
Đăng số 1312 (số 40/2024) KH&PT
Quốc Hùng và nhóm tác giả lược dịch