为什么会有那么多大模型答错「9.9 和 9.11 哪个大」?

知乎热榜2个月前发布 NIUC!
438 0 0

桔了个仔的回答

我猜可能是tokenizer导致的

虽然ChatGPT是闭源,但OpenAI的Tokenizer是开源的(Github地址),也可以通过这个网址直接测试Tokenizer: platform.openai.com/tok,我们对这个问题进行tokenize的话,结果如下

为什么会有那么多大模型答错「9.9 和 9.11 哪个大」?
为什么会有那么多大模型答错「9.9 和 9.11 哪个大」?

可以看到,9.11被拆成了3个token,结果就导致小数前面的9和9比,小数点后面的9和11比。

同样的,Anthropic Claude的Tokenizer也一样

为什么会有那么多大模型答错「9.9 和 9.11 哪个大」?

我一个小时前测试时,GPT4, 4o, Claude3.5 sonnet, kimi都翻车了,而通义千问,豆包,文心一言,glm4等大模型都做出了正确的回答,不知道是打了补丁,还是因为中文大模型的Tokenizer不一样?具体结果大家可以看我一小时前发的想法,图太多就不贴进来影响阅读了。

问题很简单,就是: 9.9和9.11哪个大? 没…

不过换个角度来说,当9.9和9.11代表软件版本号是,确实9.11更大。所以从这个角度来讲,也不一定是错误答案。

其实大模型幻觉的成因是多样的,这里仅仅只是简单的分析,即使打上这个补丁,大模型的幻觉还是防不胜防的,大家使用大模型时不要轻信结果,得自己判断结果是否合理。

© 版权声明

相关文章

暂无评论

暂无评论...