ChatGPT 惨遭嫌弃,Llama 2 开源春风得意、OpenAI 表示不服!
既开源又免费的 Llama 2 一经发布颇有席卷之势,成了最火爆的开源 ChatGPT 替代,国内外不少开发者及企业都跟风进行模型的研究和商业开发,比如这几天 OpenAI 传奇科学家 Andrej Karpathy 就用纯 C 语言打造了一个轻量版的 Llama 2 模型。而反观被称为大模型天花板的 GPT-4 则很不如意,深陷智商下降漩涡。
ChatGPT 什么时候不聪明了?
自今年三月 GPT-4 发布后,已经有不少的开发者和用户在 OpenAI 论坛提到使用 ChatGPT 时会出现不连贯性、非自然语言、以及推理等问题。其核心症结众说纷纭,有学者怀疑是 OpenAI 的系统修改和升级导致,通过削弱运算性能从而实现降本增效。然而由于 ChatGPT 闭源的属性,我们很难确定其背后的真正原因。
OpenAI社区讨论GPT-4性能的帖子尤其热闹
围绕 GPT 智商下降的讨论在 “How is ChatGPT's Behavior Changing Over Time?” 论文的发布之下被推向了顶峰,来自斯坦福大学和加州大学伯克利分校的学者 Lingjiao Chen、Matei Zaharia 和 James Zou 对 3 月和 6 月不同版本的 GPT-3.5 和 GPT-4 进行了任务测试,结果发现不同版本的结果出现显著的表现差异(漂移 drifting)。
首先是程序员们最为关心的代码生成能力。即使在明确声明不要注释的前提下,新版 GPT-3.5 和 GPT-4 仍然添加了更多的非代码文本和注释,使回答变得繁杂冗长。同时,代码质量下降使得直接可执行代码生成的比例更低(GPT-4 从 3 月的 52%下降到 6 月的 10%)。这对于程序员们而言,可能在用 LeetCode 刷题时,自己答对的概率比 ChatGPT 还能高不少。
面对如此多的讨论,OpenAI 否定了 ChatGPT 性能倒退的说法。OpenAI 产品副总裁 Peter Welinder 在一条推文中说:“我们并没有让 GPT-4 变得愚蠢。恰恰相反:我们使每个新版本都比前一个版本更智能。”他提出了一个猜想,“你用得越多,越能注意到以前没有看到的问题,”并鼓励大家把觉得 GPT 退化的截图发给他用以分析。
有趣的是,Chen 等人对 ChatGPT 测试的论文与 Llama 2 几乎同时发表,无论用途和用户,向所有人开放免费下载使用。“OSS LLM 不会这么保密。我们可以作为一个社区严格版本化和跟踪回归、诊断和修复所有这些问题,”Fan 在推文中提到。自 ChatGPT 横空出世之后,人人都在呼唤、渴求它的开源,然而终究是石沉大海。哪怕是当 OpenAI 创始人 Sam Altman 被直接问到关于开源的问题时,他的回答依然很巧妙地规避了 GPT 是否会开源,只是说“我们未来会有更多开源大模型,但没有具体模型和时间表”。这也是为什么 Llama 2 火速收获全球开发者及企业喜爱的关键所在。而对于搭建像 ChatGPT 一样封闭式的大语言模型,对于安全的不确定性、更持续透明的信息同步和维护依然是开发者最为迫切的需求。参考链接:https://twitter.com/DrJimFan/status/1681716564335394817https://arxiv.org/abs/2307.09009https://www.theregister.com/2023/07/20/gpt4_chatgpt_performance/?td=rt-3ahttps://community.openai.com/t/experiencing-decreased-performance-with-chatgpt-4/234269https://twitter.com/OfficialLoganK https://twitter.com/OpenAI
*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。