刚刚,GPT-5.4核心内幕炸裂剧透!或拥有永久记忆,极限推理狂飙_OpenAI_模型_mode
新智元报道
编辑:Aeneas
【新智元导读】GPT-5.4,马上就要来了!目前已经开启测试,一次能写6000行代码。外媒曝出它有极限推理模型,甚至还传闻拥有永久记忆。
如果你觉得最近AI圈有点安静,太不刺激,那可能只是暴风雨前的宁静。
据多方消息,GPT-5.4,已经箭在弦上了!
LMArena上,已经出现了GPT-5.4的身影。
就在刚刚,外媒The Information,剧透了不少关于GPT-5.4的核心内幕。
消息足够炸裂:它有更长的上下文,更极限的推理模型,甚至,可能出现永久记忆!
如果如传闻所言,这些都是真的,那这一代模型很可能不是简单的升级,而是一次能力形态的巨大跃迁。
GPT-5.4提前测试,代码炸裂曝光
最近,GPT-5.4简直在到处泄露。
从Codex错误日志、GitHub PR,到员工误发截图,短短几天时间,GPT-5.4已经被「曝光」了至少三次。
而且,这还都是OpenAI自己意外泄露出来的。
最早,是开发者Corey Noles在使用OpenAI Codex时触发了一次网络安全限制,系统返回的错误日志里出现了一串非常长的模型名称:
这串字符最关键的,就是前面三位——gpt-5.4。
总之,这串字符串可以认为是OpenAI的内部部署ID,翻译过来就是「一个真实部署、正在测试中的GPT-5.4实验版本。」
然后,在OpenAI官方Codex仓库里,出现了两个Pull Request:
一个PR写着:
另一个PR更直接:
看起来,OpenAI给GPT-5.4加了一个「Fast Mode」开关。几小时后,两个PR就被force push删除了。
接下来,更戏剧性的一幕出现:OpenAI Codex团队的一名员工Tibo在社交平台上发布了一张截图。图中,模型选择器里赫然写着GPT-5.4。
没多久,这条帖子就被删掉了。
随后,又有开发者报告,在Codex错误信息中看到类似的模型字符串。
这更加说明,GPT-5.4已经部署在内部服务器,正在进行真实的A/B测试了。
一次提示,生成6000行代码?
而且,目前已经有开发者报告了一个明显变化——速度!
一些测试者表示,模型的推理明显更快,代码生成更长,甚至一次提示可生成 6000+行代码!
这在以前几乎不可能。
一些人还发现一个新特征——Fast Mode。
这可能意味着,OpenAI正在尝试新的推理架构,例如多级latency pipeline,或不同速度档位模型。
另外,新模型界面特征也被发现了:部分用户表示,如果在推理摘要(Chain-of-Thought summary)旁边看到点赞或点踩按钮,可能意味着账户已经被分配到GPT-5.4的测试模型。
极限推理模式,性能拉爆
The Information的爆料,也跟以上信息完全对上了。
这次爆料中,最亮的就是这个极限推理模式——Extreme Reasoning Mode了。
传统模型的思考时间都很有限,但这个极限推理模式,直接让模型的性能拉到爆,在遇到困难问题时,能花费更多时间,调用更多计算***,进行更深层的推理。
有趣的是,根据调查,其实很多普通ChatGPT用户对于推理功能并不太热衷。
而且从商业应用的角度来说,这个功能也不很适用,因为企业要的是AI尽快给一个答案。
因此,OpenAI依然如此重视推理能力,倒是显得动机纯粹了不少。
不过,这个消息,对于科研领域和部分企业客户,倒是重大利好。
显然,在科学研究领域,许多用户很愿意让一个模型在有价值的研究问题上运行数小时,甚至数天。
同时,部分企业也会需要用到GPT-5.4更强的推理能力和长周期任务表现,来构建能够把更复杂业务流程自动化的AI智能体。
根据各方爆料,这个极限推理模式将会很疯狂,这也就把大家的期待拉满了。
上下文直接翻倍,达到1M tokens
对于GPT-5.4来说,这是另一个十分硬核的升级——上下文窗口从40万tokens,升到了一百万tokens。
这样一来,GPT-5.4的上下文窗口将超过当前GPT-5.2的两倍。(当然,也有一些OpenAI模型支持100万token,比如GPT-4.1,但5.2并不支持)
这下,GPT-5.4可以直接塞进去几十万字的文档,分析一整本书,或者长长的代码库和数据了。
这也让终于让这个模型在长上下文能力上,重新追平了谷歌的Gemini和Anthropic的Claude。
毕竟,其他家早就达到了100万token的上下文窗口,现在GPT-5.4终于补齐了这个短板。
而坊间爆料比The Information更夸张:上下文达到了2百万tokens!
GPT-5.4,开始擅长「长任务」
爆料中的另外一个点,就是GPT-5.4在需要持续数小时的任务上表现也更好。
也就是说,它在多个步骤中更能记住用户请求的细节,以及自己被允许或不允许执行的内容,同时也更不容易出错。
显然,这对于OpenAI的Codex编程工具会极有帮助,因为Codex正是使用AI来自动化复杂的长时间任务。
另外,这种长时间任务能力,对于AI Agent来说也非常关键。
Agent可以自己读取需求、查资料、写代码、修bug,并不是每一步都需要人重新提示了。
GPT-5.4,可能拥有永久记忆?
接下来,最疯狂的传闻来了——GPT 5.4,可能拥有永久记忆!
一位工程师在X上给出这个爆料后,立刻炸翻了AI社区,硅谷投资大佬、YC创始人Garry Tan也火速赶来转发。
在这篇帖子中,爆料人是这样介绍GPT-5.4的「持久状态」的。
Jeff Dean在参加latentspacepod播客时就提到了这一点,可以看出,如今各大AI实验室都在思考这个方向。
有人猜测,OpenAI内部很可能已经发现了,如何大规模地有效结合状态空间模型(SSM)和Transformer。
其中的关键,就是SSM的设计本身就是在每一步计算中持续传递隐藏状态(hidden state),而且它的计算复杂度是线性增长,不像Transformer那样随着上下文长度呈二次增长。
这也就和某个传闻相呼应了:据说,GPT-5.4可能拥有200万token的上下文窗口。
所谓持久化状态,本质上意味着AI模型会从电影 《记忆碎片》Guy Pearce的角色一夜之间变成《雨人》里Dustin Hoffman的角色,前者只能依赖短期记忆,而后者拥有稳定而持久的记忆。
换句话说,这将赋予AI模型真正的长期记忆能力。
如果真的能实现,这将会是一次非常巨大的技术突破!
压力山大,OpenAI被迫「月更」
显然,GPT-5之后,OpenAI做了一个明显改变,模型开始高频月更。
今年以来,我们已经迎来了GPT-5.1,GPT-5.2,马上5.4也要来了,更新节奏甚至接近了一个月一次。
显然,OpenAI也是被对手逼到墙角了。
目前,ChatGPT的周活跃用户已达9.1亿,虽然数字看似很惊人,但依然没能达到OpenAI 10亿WAU(活跃用户)的目标。
而谷歌和Anthropic这些竞争对手都在步步紧逼,在长上下文、Agent、推理能力上都在持续加码。
如果GPT-5.4真的拥有1百万长上下文、极限推理、持久状态,那AI形态很可能会变成持续工作的智能体。
而且,如果GPT-5.4真的能开始「记住事情」,这很可能就是大模型历史上的一个关键节点。
奇点已至,我们正在狂飙加速。你,准备好了吗?
参考资料:
***s://x***/marmaduke091/status/2028604854143176958
***s://***.theneurondaily***/p/openai-leaked-gpt-5-4-three-times
***s://x***/daniel_mac8/status/2028849150368862416返回搜狐,查看更多
同类文章排行
- 为什么日本人口密度这么大还能住一户建,中国只能住楼房?
- 腰椎间盘突出有多痛苦?
- 为什么 Windows 没有比较成熟的第三方桌面环境(explorer.exe)?
- 为什么一谈到Wi-Fi想支持6GHz,总有人说那你可以去国外?
- 如何评价微信新版语音界面设计?你喜欢吗?
- 始终怀不上孕是种怎样的体验?
- 前端,后端,全栈哪个好找工作?
- 中医把脉是***吗?
- 系统太稳定了甲方觉得我们没有工作量,怎么收运维费?
- 鸿蒙折叠屏笔记本为什么敢卖26999?
最新资讯文章
- 普通用户能体会到 CPU 的性能差距吗?
- PHP现在真的已经过时了吗?
- 平面设计主KV做成这样,在你的城市薪资一般多少?
- 为什么很多人 get 不到林青霞的美?
- 国产数据库有什么坑?
- 月之暗面 Kimi 首个 Agent 开启内测,可生成易追溯的万字报告,有哪些技术亮点?
- 中国的防空系统能有效防止B2、B21这类飞翼隐身战略轰炸机入侵吗?
- 新手养鱼,鱼缸中能放入哪些水草?
- 养乌龟是什么体会?
- 为什么用 electron 开发的桌面应用那么多?
- 为什么有的女生喜欢穿紧身牛仔裤?
- 小鹏G7预售价23.58万,何小鹏称其为「全球首款L3级算力的AI汽车」,何为L3级算力?竞争力如何?
- 有什么 j***ascript 的好书推荐?
- 如何评价b站数码区up主 “大狸子切切里”?
- 国密加密算法有多安全呢?
- php这个岗位在未来几年会消失吗,因为刚从事php有点焦虑?
- 个人博客网站,要坚持多久才会有读者?
- 黑客为什么可以做到无需知道源码的情况下找出系统漏洞?
- 我撸猫撸得她舒舒服服的为啥突然咬我?
- 长得和刘亦菲很像是一种什么体验?





