"); //-->
既开源又免费的 Llama 2 一经发布颇有席卷之势,成了最火爆的开源 ChatGPT 替代,国内外不少开发者及企业都跟风进行模型的研究和商业开发,比如这几天 OpenAI 传奇科学家 Andrej Karpathy 就用纯 C 语言打造了一个轻量版的 Llama 2 模型。而反观被称为大模型天花板的 GPT-4 则很不如意,深陷智商下降漩涡。
ChatGPT 什么时候不聪明了?
自今年三月 GPT-4 发布后,已经有不少的开发者和用户在 OpenAI 论坛提到使用 ChatGPT 时会出现不连贯性、非自然语言、以及推理等问题。其核心症结众说纷纭,有学者怀疑是 OpenAI 的系统修改和升级导致,通过削弱运算性能从而实现降本增效。然而由于 ChatGPT 闭源的属性,我们很难确定其背后的真正原因。
OpenAI社区讨论GPT-4性能的帖子尤其热闹
围绕 GPT 智商下降的讨论在 “How is ChatGPT's Behavior Changing Over Time?” 论文的发布之下被推向了顶峰,来自斯坦福大学和加州大学伯克利分校的学者 Lingjiao Chen、Matei Zaharia 和 James Zou 对 3 月和 6 月不同版本的 GPT-3.5 和 GPT-4 进行了任务测试,结果发现不同版本的结果出现显著的表现差异(漂移 drifting)。
首先是程序员们最为关心的代码生成能力。即使在明确声明不要注释的前提下,新版 GPT-3.5 和 GPT-4 仍然添加了更多的非代码文本和注释,使回答变得繁杂冗长。同时,代码质量下降使得直接可执行代码生成的比例更低(GPT-4 从 3 月的 52%下降到 6 月的 10%)。这对于程序员们而言,可能在用 LeetCode 刷题时,自己答对的概率比 ChatGPT 还能高不少。
而在解决数学问题方面,GPT-4 识别质数的能力从 3 月份几乎全对下降到 2.4%,而 GPT-3.5 的成功率暴涨至 86.8%。作者怀疑 GPT-3.5 相比较 GPT-4 更好地遵循了链式思维指示(Chain-Of-Thought),而新版 GPT-4 可能会在推理过程思维断裂而出错。在回答敏感问题方面,新版 GPT-3.5 较 3 月版更大胆,回答率从 4%增加到 8%。而新版 GPT-4 则更保守,从 21%下降到 5%。同时,GPT-4 的生成字符长度从 600 多个下降到大约 140 个,在拒绝回答时更简洁,提供的解释也更短。GPT-3.5 也发生了类似的现象。这表明新版 ChatGPT 的答案可能会更安全,但是也更怂、更不愿意解释。最后的任务是视觉推理。新版 GPT-4 和 GPT-3.5 的整体性能较三个月前有小幅提升,但依旧不高:GPT-4 的正确率为 27.4%,GPT-3.5 为 12.2%。值得注意的是,尽管整体性能更好,但 GPT-4 在之前没有犯的错误反而在新版里出现了,凸显了对于关键应用漂移监测的必要性。在论文中,作者并没有明确提及新版 ChatGPT 比较旧版性能有降级,仅仅是将观察到的漂移现象描述出来,并强调了持续评估 LLM 在生产应用程序中的行为的必要性,并建议用户和公司实施与上述四个任务类似的监控分析以保证其运行顺畅。Zou:“我们不完全了解是什么导致了 ChatGPT 响应的这些变化,因为这些模型是不透明的。调整模型以提高其在某些领域的性能可能会产生意想不到的副作用,使其在其他任务上变得更糟。”李飞飞的学生、英伟达资深 AI 科学家 Jim Fan 也表达了他对于这篇论文和 ChatGPT“反向”升级的观点。他认为,OpenAI 从 3 月到 6 月花了大部分精力做减负,导致了一些功能的损失。但同时,安全对齐(Safety Alignment)使编程变得冗余而让开发者徒增烦恼,削减成本可能会影响模型性能。OpenAI 回应:GPT 没有智商下降!*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。