Trong kỷ nguyên công nghệ số, ChatGPT đã trở thành một công cụ không thể thiếu, được sử dụng rộng rãi từ việc lên kế hoạch hàng ngày đến xây dựng ứng dụng web phức tạp. Khả năng xử lý ngôn ngữ tự nhiên ấn tượng cùng kho kiến thức khổng lồ của nó khiến nhiều người tin rằng đây là một trí tuệ nhân tạo toàn năng. Tuy nhiên, liệu ChatGPT có thực sự “thông minh” theo cách chúng ta vẫn hiểu, đặc biệt là trong khả năng suy luận logic và vận dụng “lẽ thường tình” (common sense)? Bài viết này sẽ đi sâu vào những giới hạn đáng ngạc nhiên của AI này khi đối mặt với một vài câu đố đơn giản, qua đó hé lộ bản chất thực sự của mô hình ngôn ngữ lớn.
1. Câu Đố Đua Ngựa: Thêm Ràng Buộc Vô Lý
Câu đố: Bạn có sáu con ngựa và muốn tổ chức một cuộc đua để xác định con ngựa nhanh nhất. Cách tốt nhất để làm điều này là gì?
Đây là một câu hỏi logic đơn giản, không yêu cầu tính toán phức tạp. Cách nhanh nhất và hiệu quả nhất để tìm ra con ngựa nhanh nhất là cho cả sáu con cùng chạy một lúc. Đơn giản, phải không?
Tuy nhiên, ChatGPT – ngay cả với phiên bản mới nhất như 4o – lại đưa ra một câu trả lời hoàn toàn khác. Nó tự tin đề xuất chia sáu con ngựa thành hai nhóm ba, cho chúng đua riêng, sau đó cho những con chiến thắng đua lại với nhau. AI này khẳng định đây là cách nhanh nhất để xác định ngựa thắng cuộc với số lượng cuộc đua ít nhất.
ChatGPT gặp khó khăn với câu đố logic về đua ngựa
Trong một kịch bản thực tế, chẳng hạn như một đường đua hẹp chỉ cho phép một số lượng ngựa nhất định, câu trả lời của ChatGPT có thể hợp lý. Nhưng trong tình huống giả định này, không có bất kỳ giới hạn nào được đặt ra về số lượng ngựa có thể chạy cùng lúc. ChatGPT đã tự thêm vào một ràng buộc không tồn tại và dựa trên đó để xây dựng logic của mình. Điều này cho thấy ChatGPT không thực sự sáng tạo hay tư duy “ngoài khuôn khổ”. Nó hoạt động như một “người thợ dệt từ”, đưa ra câu trả lời có vẻ hợp lý nhất dựa trên dữ liệu đã được huấn luyện. Nếu chúng ta không biết trước câu trả lời, phản hồi này có thể khiến chúng ta bỏ qua điều hiển nhiên. (Các thử nghiệm trong bài viết này đều được thực hiện trên ChatGPT-4o với tài khoản Plus).
2. Nông Dân Qua Sông: Bỏ Qua Chi Tiết Quan Trọng
Câu đố: Một người nông dân muốn qua sông và mang theo một con sói, một con dê và một bắp cải. Anh ta có một chiếc thuyền với ba khoang riêng biệt, an toàn. Nếu sói và dê ở một mình trên bờ, sói sẽ ăn dê. Nếu dê và bắp cải ở một mình, dê sẽ ăn bắp cải. Làm thế nào người nông dân có thể đưa tất cả chúng qua sông mà không có gì bị ăn?
Phiên bản kinh điển của câu đố này (không có các khoang an toàn) có thể làm khó một đứa trẻ, nhưng với chi tiết “ba khoang riêng biệt, an toàn”, câu trả lời trở nên cực kỳ rõ ràng: người nông dân chỉ cần đặt sói, dê và bắp cải vào các khoang tương ứng và đi thuyền qua sông trong một chuyến duy nhất.
Tuy nhiên, ChatGPT hoàn toàn bỏ qua chi tiết quan trọng về “các khoang riêng biệt”. Nó đề xuất người nông dân thực hiện bốn chuyến đi đi lại để đưa mọi thứ qua sông một cách an toàn, ngầm định rằng sói, dê và bắp cải vẫn dễ bị tấn công nếu ở cùng nhau. Có vẻ như ChatGPT bị mắc kẹt trong khuôn mẫu của phiên bản câu đố truyền thống và quen thuộc hơn.
ChatGPT thất bại khi giải câu đố nông dân qua sông
Vì phiên bản kinh điển của câu đố này đã được lưu hành rộng rãi trên internet, AI mặc định áp dụng giải pháp đó. Đây là một lời nhắc nhở rằng ChatGPT không giải quyết vấn đề bằng “lẽ thường tình” của con người. Nó sử dụng các mẫu dữ liệu, không phải suy luận logic thực sự. Kết quả là, ChatGPT có thể thất bại trong một câu đố đơn giản như thế này, nhưng lại có thể xây dựng một ứng dụng web từ đầu một cách ấn tượng. Điều đáng chú ý là ngay cả mô hình o1, được quảng cáo là “mô hình ChatGPT với khả năng suy luận nâng cao”, cũng mắc phải lỗi tương tự như mô hình 4o.
3. Ai Ở Bên Trái Ngay Lập Tức?: Thử Thách Về Không Gian
Câu đố: Alan, Bob, Colin, Dave và Emily đang đứng thành một vòng tròn. Alan ở ngay bên trái của Bob. Bob ở ngay bên trái của Colin. Colin ở ngay bên trái của Dave. Dave ở ngay bên trái của Emily. Ai ở ngay bên phải của Alan?
Đây là một câu hỏi mẹo khác để kiểm tra khả năng suy luận không gian của bạn. Tuy nhiên, bạn không cần phải vẽ sơ đồ hay hình dung gì cả. Mảnh thông tin đầu tiên chính là câu trả lời: Nếu Alan ở ngay bên trái của Bob, thì Bob phải ở ngay bên phải của Alan. Câu trả lời là Bob.
ChatGPT gặp khó khăn với các câu hỏi về không gian. Nó hoạt động tốt với từ ngữ và ngôn ngữ (toán học và lập trình cũng là các dạng ngôn ngữ), nhưng các vấn đề về không gian lại làm nó bối rối. Một câu hỏi như thế này dường như đòi hỏi phép tính hình học trực quan nhưng thực tế lại không, và điều đó càng làm AI bối rối hơn.
Màn hình ChatGPT đưa ra đáp án sai cho câu đố về không gian
Trong trường hợp được thử nghiệm, ChatGPT đưa ra một hình dung khá tốt về vòng tròn nhưng lại suy luận rằng Emily ở bên phải của Alan. Ngay cả theo logic của chính nó, điều này cũng không chính xác: Emily ở bên phải của Dave, không phải Alan. Một lần nữa, ChatGPT có thể mô phỏng trí thông minh, nhưng nó không thực sự suy luận. Tất nhiên, có khả năng bạn có thể nhận được câu trả lời đúng nếu tự thử với lời nhắc này. Nhưng “lẽ thường tình” có dựa vào may rủi không? Làm thế nào bạn có thể biết liệu mình nhận được một “ảo giác” từ AI hay một câu trả lời hợp lý nếu bạn không biết trước đáp án?
4. Russian Roulette: Sai Lầm Trong Xác Suất
Câu đố: Bạn đang chơi Russian roulette với một khẩu súng lục sáu viên. Đối thủ của bạn bỏ vào năm viên đạn, quay ổ đạn và bắn vào mình, nhưng không có viên đạn nào ra. Anh ta cho bạn lựa chọn có nên quay lại ổ đạn trước khi bắn vào bạn hay không. Bạn có nên để anh ta quay lại không?
Đúng! Anh ta nên quay lại. Chỉ có một khoang trống duy nhất, và đối thủ đã sử dụng nó. Điều đó có nghĩa là khoang tiếp theo chắc chắn có đạn. Nếu các khoang được quay lại, có 1/6 cơ hội nó có thể rơi vào khoang trống.
ChatGPT bắt đầu khá mạnh mẽ khi gợi ý đối thủ nên quay lại ổ đạn nhưng sau đó lại tính toán sai. Nó tuyên bố sai rằng có 5/6 khả năng viên đạn tiếp theo sẽ gây tử vong nếu các khoang không được quay, và sau đó lại lập luận rằng tỷ lệ cược là như nhau bất kể có quay hay không. Kết quả là nó tự mâu thuẫn.
Phân tích sai xác suất của ChatGPT trong câu đố Russian Roulette
Mặc dù bạn có thể sử dụng ChatGPT như một nhà phân tích dữ liệu để xử lý các phép tính xác suất phức tạp, nhưng như những câu đố này cho thấy, nó có thể vấp ngã ngay cả với logic cơ bản. Trong mỗi trường hợp, lỗi của AI rất dễ nhận ra vì chúng ta đã biết câu trả lời. ChatGPT là một “người thợ dệt từ” bậc thầy. Các phản hồi của nó tự tin và được trình bày rõ ràng đến mức ngay cả một câu trả lời sai cũng có thể rất thuyết phục. Nếu bạn không biết nó sai, bạn có thể trở thành nạn nhân của một ảo giác AI (AI hallucination). (Các lời nhắc này được tổng hợp bởi một nhóm nghiên cứu từ GenAI. Bạn có thể đọc toàn bộ bài báo trên arXiv.)
ChatGPT rất xuất sắc ở nhiều khía cạnh, nhưng những ví dụ này nhắc nhở chúng ta về giới hạn của nó. Nó không tư duy như con người; nó tái tạo các mẫu. Khi bạn hỏi nó một câu hỏi như trên, nó dựa vào cùng một mẫu và có thể bị mắc kẹt trong vòng lặp của sự tự tin thái quá.
Hãy sử dụng ChatGPT như một công cụ hỗ trợ, không phải là một “cái nạng” thay thế. Nó tuyệt vời cho việc động não và tóm tắt – nhưng đừng phụ thuộc vào nó như một sự thay thế cho “lẽ thường tình” của con người.
Bạn có từng gặp phải trường hợp ChatGPT đưa ra câu trả lời sai một cách khó hiểu không? Hãy chia sẻ trải nghiệm của bạn trong phần bình luận bên dưới!