在人类社会,AI是否会超越人类智慧一直备受关注。然而,最新研究显示,像 ChatGPT 和 Claude 这样的顶尖AI模型,实际上存在一种有趣的偏差:它们往往过度神话人类的理性。凯恩斯选美实验:AI高估人类逻辑性 研究人员 ...
在人类社会,AI是否会超越人类智慧一直备受关注。然而,最新研究显示,像 ChatGPT 和 Claude 这样的顶尖AI模型,实际上存在一种有趣的偏差:它们往往过度神话人类的理性。凯恩斯选美实验:AI高估人类逻辑性研究人员通过经典博弈论实验——凯恩斯选美比赛(猜数字游戏)——对AI进行了测试。实验要求参与者预测他人的选择,以获得胜利。这种游戏理论上需要深层逻辑推演,但人类在实际操作中往往难以达到理想策略水平。 研究发现,当AI与人类对弈时,虽然能够根据对手的背景(如大学生或专家)调整策略,但它们仍倾向于假设人类会做出最理性的决策。这种“把人想得太聪明”的偏差,使AI在预测真实人类行为时经常出现失准。 对AI应用的启示这一研究提醒我们,即便AI能够高度模拟人类人格特质,但在涉及经济预测、策略建模、社会行为分析等任务时,对人类非理性行为的认知校准仍是技术发展的一大挑战。 未来,如何让AI在理解人类决策时既能考虑理性逻辑,又能兼顾非理性行为,将成为提升AI实用性和可靠性的关键。 |
评论