|
不管Pony Alpha是不是智谱的,下一代旗舰大模型GLM-5都要来了。 GitHub代码确认,新一代架构细节曝光。 GLM-5采用了DeepSeek-V3/V3.2架构,包括稀疏注意力机制(DSA)和多Token预测(MTP),总参数量745B,是上一代GLM-4.7的2倍。 与此同时,OpenRouter平台上突然出现的神秘匿名模型「Pony Alpha」,编程和推理能力极为强劲,被社区91%以上的用户判断为GLM-5测试版。 受这些消息影响,智谱AI港股两日暴涨60%。 开源代码泄露参数架构 GLM-5的架构信息并非来自智谱官方,而是被开源社区从代码提交中“挖”出来的。 在vLLM推理框架的PR中,开发者发现GLM-5的实现逻辑被直接映射到了DeepSeek-V3的组件上。 GLM-5继承的第一项核心技术是DeepSeek稀疏注意力(DeepSeek Sparse Attention,DSA)。 DSA通过两阶段流程做到长文本处理效率大幅提升,输出质量几乎不受影响。 首先由Lightning Indexer轻量级组件快速扫描所有历史token并打分,评估它们与当前query token的相关性;然后只挑选得分最高的Top-k个token进行完整的注意力计算,其余全部跳过。 第二项技术是多Token预测(Multi-Token Prediction,MTP),用于提升模型的生成效率。 从代码中推断出的架构参数看,GLM-5包含78层隐藏层,采用MoE(混合专家)架构,共256个专家,每次推理激活8个,激活参数约44B,稀疏度5.9%,与DeepSeek-V3.2的5.4%基本持平。 上下文窗口支持最高202K token。 有开发者指出,复用DeepSeek架构意味着GLM-5可以直接受益于vLLM、SGLang等推理框架已有的优化,部署门槛会更低。 但也有人提出疑问:DeepSeek-V3架构以纯文本为主,GLM-5首发版本是否会因此缺失多模态能力? 匿名测试与春节档大混战 2月初,OpenRouter平台上新匿名免费模型,代号「Pony Alpha」,支持200K上下文窗口。 模型一上线就引起了开发者社区的广泛关注,它的编程能力非常突出,能根据单条提示直接生成完整的功能性应用程序,在复杂推理和Agent工作流上同样表现出色。 “这到底是谁家的模型”迅速成为社区热议话题。 指向GLM-5的证据链覆盖了多个维度: 时间上,「Pony Alpha」出现的节点与智谱首席科学家唐杰多次暗示的GLM-5发布窗口完全吻合。 有开发者测试发现该模型对特定token的反应和GLM系列一致。 风格上,它的输出排版习惯也与GLM系列高度一致。 GLM-5的发布窗口,恰好撞上了一个异常拥挤的档期。 唐杰在内部信中已明确预告GLM-5即将发布,多方信息指向2026年2月中旬,即春节前后。 而在同一时间段,DeepSeek新模型、Qwen 3.5、MiniMax M2.2等模型也都有消息将发布更新。 2026年的“春节档”,AI比电影那边还热闹。 https://www.qbitai.com/2026/02/378315.html |

AI资讯
推荐帖子
千问DAU达到7352万,逼平豆包
天使羽毛1 26 看过
字节 Seedance2.0震撼发布却陷“肖像风暴”
天使羽毛1 40 看过
GLM-5架构曝光,智谱两日涨近60%:采用DeepSeek同款稀疏注意力
冬烛 30 看过
一人干翻所有大厂!OpenClaw硅谷封神,开发者一夜爆赚两亿
simonzhd 16 看过