包阅导读总结
1. 大模型、智障检测、Strawberry、token 问题、解决方法
2. 大模型在数“Strawberry”中“r”的个数时纷纷出错,不同模型表现各异。为教会模型,网友脑洞大开,尝试各种提示词技巧。也有部分模型能直接答对,这实际是 token 问题,解决方法多样,希望大模型公司能改进。
3.
– 大模型“集体失智”,数不对“Strawberry”中“r”的个数
– GPT-4o 错且自信,Llama-3.1 405B 能改正,Claude 3.5 Sonnet 越改越错
– 网友尝试教会大模型的方法
– Few-Shot CoT 大法附加示例,ChatGPT 仍学不会
– 全球网友开发各种奇奇怪怪的提示词技巧
– 部分模型能直接答对
– ChatGPT 小概率答对,谷歌 Gemini 约三分之二概率答对
– 国内部分模型表现良好
– “数 r”问题本质是 token 问题及解决方法
– 不同模型对字符的 token 理解不同
– 可像智谱清言调用代码解决,关键是让 AI 知能力边界
– 希望大模型公司改进此问题
思维导图:
文章地址:https://www.qbitai.com/2024/07/171180.html
文章来源:qbitai.com
作者:一水
发布时间:2024/7/25 4:29
语言:中文
总字数:1632字
预计阅读时间:7分钟
评分:85分
标签:大模型,AI错误分析,提示词技巧,深度学习,自然语言处理
以下为原文内容
本内容来源于用户推荐转载,旨在分享知识与观点,如有侵权请联系删除 联系邮箱 media@ilingban.com
大模型智障检测+1:Strawberry有几个r纷纷数不清
继分不清9.11和9.9哪个大以后,大模型又“集体失智”了!
数不对单词“Strawberry”中有几个“r”,再次引起一片讨论。
GPT-4o不仅错了还很自信。
刚出炉的Llama-3.1 405B,倒是能在验证中发现问题并改正。
比较离谱的是Claude 3.5 Sonnet,还越改越错了。
说起来这并不是最新发现的问题,只是最近新模型接连发布,非常热闹。
一个个号称自己数学涨多少分,大家就再次拿出这个问题来试验,结果很是失望。
在众多相关讨论的帖子中,还翻出一条马斯克对此现象的评论:
好吧,也许AGI比我想象的还要更远。
路遇失智AI,拼尽全力终于教会
有人发现,即使使用Few-Shot CoT,也就是“一步一步地想”大法附加一个人类操作示例,ChatGPT依然学不会:
倒是把r出现的位置都标成1,其他标成0,问题的难度下降了,但是数“1”依旧不擅长。
为了教会大模型数r,全球网友脑洞大开,开发出各种奇奇怪怪的提示词技巧。
比如让ChatGPT使用漫画《死亡笔记中》高智商角色“L”可能使用的方法。
ChatGPT想出的方法倒是也很朴素,就是分别把每个字母写出来再一个一个数并记录位置,总之终于答对了。
有Claude玩家写了整整3682个token的提示词,方法来自DeepMind的Self-Discover论文,可以说是连夜把论文给复现了。
整个方法分为两大阶段:先针对特定任务让AI自我发现推理步骤,第二阶段再具体执行。
发现推理步骤的方法简单概括就是,不光要会抽象的思维方法,也要具体问题具体分析。
这套方法下,Claude给出的答案也非常复杂。
作者补充,花这么大力气解决“数r问题”其实并不真正实用,只是在尝试复现论文方法时偶然测试到了,希望能找出一个能用来回答所有问题的通用提示词。
不过很可惜,这位网友目前还没公布完整的提示词。
还有人想到更深一层,如果要计算文档中straberry出现多少次怎么办?
他的方法是让AI想象有一个从0开始的内存计数器,每次遇到这个单词就往上加。
有人评论这种方法就像在用英语编程。
也有AI可以一次做对
那么究竟有没有大模型,可以不靠额外提示词直接答对呢?
其实不久之前有网友报告,ChatGPT是有小概率能直接答对的,只不过不常见。
谷歌Gemini 大概有三分之二的概率能答对,打开“草稿”就能发现,默认每个问题回答三次,两次对一次错。
至于国内选手,在提问方式统一、每个模型只给一次尝试机会的测试下,上次能正确判断数字大小的,这次同样稳定发挥。
字节豆包给出了正确回答,还猜测用户问这个问题是要学习单词拼写吗?
智谱清言的ChatGLM,自动触发了代码模式,直接给出正确答案“3”。
腾讯元宝像解数学题一样列方程给出了正确答案(虽然貌似没有必要)。
文心一言4.0收费版则更加详细,也是先正确理解了意图,然后掰指头挨个找出了全部的“r”。
不过有意思的是,在同一种方法下,文心一言APP中的免费版文心3.5掰指头也能数错。
讯飞星火也通过找出“r”所在位置给出了正确回答。
还是token的锅
虽然“数r”和“9.11与9.9哪个大”,看似一个是数字问题一个是字母问题,但对于大模型来说,都是token问题。
单个字符对大模型来说意义有限,使用GPT系列的Llama系列的tokenizer就会发现,20个字符的问题,在不同AI眼中是10-13个token。
其中相同之处在于,strawberry被拆成了st-,raw,-berry三个部分来理解。
换一个思路用特殊字符ⓢⓣⓡⓐⓦⓑⓔⓡⓡⓨ来提问,每一个字符对应的token也就会分开了。
面对这种问题,其实最简单的方法就是像智谱清言一样,调用代码来解决了。
可以看到,ChatGPT直接用Python语言字符串的count函数,就能简单搞定。
刚刚创业开了所学校的大神卡帕西认为,关键在于需要让AI知道自己能力的边界,才能主动去调用工具。
至于教给大模型判断自己知道不知道的方法,Meta在LLama 3.1论文中也有所涉及。
最后正如网友所说,希望OpenAI等大模型公司,都能在下个版本中解决这个问题。
版权所有,未经授权不得以任何形式转载及使用,违者必究。