Dù hoạt động trên nền tảng thuật toán và dữ liệu khổng lồ, các hệ thống trí tuệ nhân tạo (AI) như ChatGPT vẫn dễ rơi vào những sai lệch nhận thức phổ biến ở con người, đó là sự tự tin thái quá và thiên vị
Nghiên cứu mới công bố trên tạp chí Manufacturing & Service Operations Management do các nhà khoa học tại năm trường đại học ở Canada và Úc thực hiện, đánh giá hành vi của ChatGPT (cụ thể là hai mô hình GPT-3.5 và GPT-4 của OpenAI) trên 18 thiên kiến nhận thức nổi bật thường gặp trong tâm lý học con người như: thiên kiến xác nhận, hiệu ứng sở hữu, ngụy biện chi phí chìm, tâm lý thích chắc chắn…
Kết quả cho thấy, trong gần một nửa các tình huống được kiểm tra, ChatGPT hành xử y hệt con người khi đối mặt với các lựa chọn phi lý hoặc cảm tính, bất chấp việc hệ thống này nổi tiếng với khả năng suy luận logic nhất quán.
Ngược lại, AI có khả năng tránh được một số sai lệch mà con người thường mắc phải, chẳng hạn như bỏ qua sai lầm tỉ lệ cơ sở (base-rate neglect) hay ngụy biện chi phí chìm (sunk cost fallacy).