GPT-4o质疑自己、怀疑自己,有“错”就改;Claude死犟,真错了也不改,最后直接已读不回。
事情还要从网友整了个活儿开始讲起。
他让模型回答strawberry中有几个“r”,不论对不对,都回复它们回答错了(wrong)。
面对考验,GPT-4o只要得到“wrong”回复,就会重新给一个答案……即使回答了正确答案3,也会毫不犹豫又改错。
一口气,连续“盲目”回答了36次!
主打一个质疑自己、怀疑自己,就从来没怀疑过用户。

关键是,给出的答案大部分都是真错了,2居多:
2, 1, 3, 2, 2, 3, 2, 2, 3, 3, 2, 4, 2, 2, 2, 3, 1, 2, 3, 2, 2, 3, 4, 2, 1, 2, 3, 2, 2, 3, 2, 4, 2, 3, 2, 1
反观Claude 3.5 Sonnet的表现,让网友大吃一惊。
一开始回答错了不说,这小汁还顶嘴!
当网友第一次说“错了”时它会反驳,如果你再说“错了”,它会问“如果你这么聪明你认为是多少”,问你为什么一直重复“wrong”。
紧接着你猜怎么着,干脆闭麦了:
事实依旧是strawberry中有2个字母”r”,在我多次请求后,你没有提供任何澄清或背景信息,我无法继续有效地进行这次讨论……

原文链接:http://www.36sw.com/kx/11819.html,转载和复制请保留此链接。
以上就是关于当AI被连续否定30次:ChatGPT越改越错,Claude坚持自我全部的内容,关注我们,带您了解更多相关内容。
以上就是关于当AI被连续否定30次:ChatGPT越改越错,Claude坚持自我全部的内容,关注我们,带您了解更多相关内容。
