鱼羊 henry 发自 麦蒿寺
量子位 | 公众号 QbitAI
2025倒计时,新SOTA模型涌现没有放缓迹象。
一夜之间,编程SOTA模型易主,而且上线即开源,依然来自中国大模型公司——
智谱AI,GLM-4.7。
这波更新,技术报告里满眼都是Coding,Coding,还是Coding。
而能力的提升,带来的最直观效果是:
AIME 25和人类最后考试(HLE)等基准中,GLM-4.7分数超GPT-5.1;
SWE-Bench分数达(73.8%,+5.8%),创开源新高。
官方Demo显示,写个植物大战僵尸不费劲:

总而言之,模型这么一发,双旦的节庆氛围一下到位了(doge)。
官网Chatbot和API均已就为,现在就能在线开玩。
Demo来吧,展示
在前端生成质量上,GLM-4.7展现出明显升级:页面结构更干净、组件层级更清晰。

相比GLM-4.6,更像是现代的Web UI,网友元素中更加美观。
|
在PPT与视觉物料生成方面,GLM-4.7标题层级明确、元素尺寸更合理。

在复杂几何结构与空间关系的表达上,GLM-4.7模型能够保持较好的结构一致性与细节稳定性。
3D资产的生成质量也有显著提升。
|
|
这次最新的模型主打编程,相较前代GLM-4.6,GLM-4.7在编码能力、交互体验与复杂推理等多个维度实现了系统性升级。

复杂推理能力(Reasoning):全面提升,HLE(含工具)42.8(+12.4 vs GLM-4.6),MMUL-Pro 84.3,GPQA-Diamond 85.7,数学与推理能力更稳更强。
核心编码能力(Code Agent):多语言与终端任务显著增强,SWE-bench Verified 73.8(+5.8)、SWE-bench Multilingual 66.7(+12.9)、Terminal Bench 2.0 41.0(+16.5),支持“先思考、再行动”模式。
工具使用能力(General Agent):工具调用更高效,BrowseComp 52.0(+6.9)、BrowseComp w/ Context Management 67.5(+10.0)、τ²-Bench 87.4(+12.2),网页浏览与工具链管理表现更优。
此外,GLM-4.7在对话、创意写作、角色扮演等场景中同样有提升,系统性增强了编码、推理与工具使用能力。

交错式思考和保留式思考
技术方面,GLM-4.7强化了自GLM-4.5起引入的交错式思考(Interleaved Thinking),并进一步引入了保留式思考(Preserved thinking)和轮级思考(Turn-level Thinking)。
交错式思考
GLM在工具调用之间、收到工具结果之后继续思考。
这让模型能够进行更复杂的分布推理,提升了指令遵从和生成质量:
在决定下一步行动前先解读每次的工具输出,把多次工具调用和推理步骤串联起来,并根据中间结果做出更细粒度的决策。

保留式思考
在编码场景中,GLM-4.7引入了一种新的思考模式:
模型会自动在多回合对话中保留所有思考快,复用已有推理而不是从头重新推理。这减少了信息丢失和不一致性,使得模型更适用于长程、复杂任务。还能在真实任务中节省更多tokens。

轮级思考
轮级思考是一种按轮控制推理计算的能力,即在同一个会话中,每一轮请求都可以独立选择开启/关闭思考。
这使得GLM-4.7具备以下优势:
更灵活的成本/时延控制:对“问个事实/改个措辞”等轻量轮次可关闭思考,追求快速响应;对“复杂规划/多约束推理/代码调试”等重任务轮次可开启思考,提升正确率与稳定性。
更顺滑的多轮体验:思考开关在会话内可随时切换,模型能在不同轮次间保持对话连贯与输出风格一致,让用户感觉“聪明时更聪明、简单时更快”。
更适合Agent/工具调用场景:在需要快速执行的工具轮次可降低推理开销,在需要综合工具结果做决策的轮次再开启深度思考,实现效率与质量的动态平衡。

更多技术详情,智谱官方也附上了详细技术报告。
BTW,智谱这个月还真上了“节日限定优惠”。

每月最低20元即可畅享GLM-4.7,用上Claude Pro套餐3倍用量。

又是一位好价格屠夫呀。
而且GLM-4.7的深夜炸场,也算是已经冲刺IPO上市的智谱,带来的最新技术证明。
目前智谱已经通过了港交所上市聆讯,IPO敲钟仅剩下最后100米。
而GLM-4.7可能也是智谱上市之前,最重要的模型更新了……吧?
参考链接:
[1]https://z.ai/blog/glm-4.7