AI cũng mắc sai lầm phi lý và thiên vị như con người

Dù hoạt động trên nền tảng thuật toán và dữ liệu khổng lồ, các hệ thống trí tuệ nhân tạo (AI) như ChatGPT vẫn dễ rơi vào những sai lệch nhận thức phổ biến ở con người, đó là sự tự tin thái quá và thiên vị.

AI - Ảnh 1.

AI hoạt động tốt nhất khi được giao giải quyết các vấn đề có quy trình rõ ràng và công thức cố định. Nhưng khi xử lý các tình huống đòi hỏi phán đoán chủ quan hoặc liên quan đến sở thích cá nhân, AI có thể mắc sai lầm giống con người - Ảnh: AI

Nghiên cứu mới công bố trên tạp chí Manufacturing & Service Operations Management do các nhà khoa học tại năm trường đại học ở Canada và Úc thực hiện, đánh giá hành vi của ChatGPT (cụ thể là hai mô hình GPT-3.5 và GPT-4 của OpenAI) trên 18 thiên kiến nhận thức nổi bật thường gặp trong tâm lý học con người như: thiên kiến xác nhận, hiệu ứng sở hữu, ngụy biện chi phí chìm, tâm lý thích chắc chắn...

Kết quả cho thấy, trong gần một nửa các tình huống được kiểm tra, ChatGPT hành xử y hệt con người khi đối mặt với các lựa chọn phi lý hoặc cảm tính, bất chấp việc hệ thống này nổi tiếng với khả năng suy luận logic nhất quán.

AI có thật sự "vô tư" như kỳ vọng?

Tiến sĩ Yang Chen, phó giáo sư quản trị vận hành tại Trường Kinh doanh Ivey (Canada) và là tác giả chính của nghiên cứu, nhận định: "AI hoạt động tốt nhất khi được giao giải quyết các vấn đề có quy trình rõ ràng và công thức cố định. Nhưng khi xử lý các tình huống đòi hỏi phán đoán chủ quan hoặc liên quan đến sở thích cá nhân, AI có thể mắc sai lầm giống con người".

Nhóm nghiên cứu đã đưa vào ChatGPT các tình huống giả định quen thuộc trong tâm lý học, lồng ghép thêm ngữ cảnh thực tiễn như quản lý tồn kho hay đàm phán với nhà cung cấp. 

Điều đáng chú ý là các mô hình AI vẫn thể hiện thiên kiến nhận thức ngay cả khi bối cảnh câu hỏi được chuyển đổi từ trừu tượng sang thực tế kinh doanh.

GPT-4 thông minh hơn, nhưng không hề hoàn hảo

GPT-4 là phiên bản nâng cấp của GPT-3.5 tỏ ra vượt trội khi giải quyết các bài toán logic hoặc xác suất. Tuy nhiên trong các mô phỏng mang tính chủ quan, ví dụ như lựa chọn phương án rủi ro để gia tăng lợi nhuận, GPT-4 lại thể hiện thiên hướng hành xử cảm tính hơn cả con người.

Đặc biệt, nghiên cứu ghi nhận GPT-4 luôn đưa ra phản hồi thiên lệch trong các tình huống kiểm tra thiên kiến xác nhận, và dễ rơi vào "ảo giác chuỗi thắng" (hot-hand fallacy), tức xu hướng tin rằng sự kiện ngẫu nhiên sẽ lặp lại theo chuỗi, rõ rệt hơn GPT-3.5.

Ngược lại, AI có khả năng tránh được một số sai lệch mà con người thường mắc phải, chẳng hạn như bỏ qua sai lầm tỉ lệ cơ sở (base-rate neglect) hay ngụy biện chi phí chìm (sunk cost fallacy).

AI - Ảnh 2.

Nguyên nhân khiến ChatGPT thể hiện thiên kiến giống con người đến từ chính dữ liệu huấn luyện, vốn đầy rẫy các hành vi và tư duy sai lệch của chúng ta - Ảnh: AI

Nguồn gốc của thiên kiến AI: Từ chính dữ liệu của con người

Theo nhóm nghiên cứu, nguyên nhân ChatGPT thể hiện thiên kiến giống con người đến từ chính dữ liệu huấn luyện, vốn đầy rẫy các hành vi và tư duy sai lệch của chúng ta. Việc AI được tinh chỉnh dựa trên phản hồi của con người lại càng củng cố xu hướng này, khi mô hình được "thưởng" cho những phản hồi có vẻ hợp lý, thay vì hoàn toàn chính xác.

"Muốn có kết quả chuẩn xác và không thiên lệch, hãy dùng AI cho các nhiệm vụ mà bạn vốn dĩ tin tưởng một chiếc máy tính có thể làm tốt", tiến sĩ Chen khuyến nghị. "Còn nếu phải xử lý các vấn đề mang tính chiến lược hoặc cảm tính, con người vẫn cần giám sát và can thiệp, thậm chí chỉ đơn giản bằng cách viết lại câu hỏi".

Đồng tác giả Meena Andiappan, phó giáo sư ngành nhân sự và quản trị tại Đại học McMaster (Canada), cho rằng: "AI nên được xem như một nhân viên có quyền ra quyết định quan trọng, nghĩa là cần được giám sát và tuân theo nguyên tắc đạo đức. Nếu không, chúng ta đang vô tình tự động hóa lối tư duy sai lệch thay vì cải thiện nó".

Trí tuệ nhân tạo AI cũng mắc sai lầm phi lý như con người - Ảnh 3.Công nghệ AI - vũ khí chống lừa đảo trực tuyến

Trước tình trạng lừa đảo trực tuyến ngày càng tinh vi, AI đang trở thành vũ khí đắc lực chống tội phạm mạng. Các chuyên gia đề xuất giải pháp tích hợp AI để nhận diện cuộc gọi lừa đảo và ngăn chặn rò rỉ dữ liệu cá nhân.

Trở thành người đầu tiên tặng sao cho bài viết 0 0 0

Tuổi Trẻ Online Newsletters

Đăng ký ngay để nhận gói tin tức mới

Tuổi Trẻ Online sẽ gởi đến bạn những tin tức nổi bật nhất

Bình luận (0)
thông tin tài khoản
Được quan tâm nhất Mới nhất Tặng sao cho thành viên