A5sh.com - 全球挚爱极客社区

标题: 蚂蚁数科推出多语种视觉大模型训练框架 [打印本页]

作者: 天使羽毛1    时间: 2025-11-5 20:15
标题: 蚂蚁数科推出多语种视觉大模型训练框架
  蚂蚁数科推出多语种视觉大模型训练框架,高效识别文档伪造与逻辑矛盾

  近日, 蚂蚁数科在香港金融科技节上发布了一项革命性的技术 ——“多语种多模态大模型训练框架”,旨在解决当前大模型在多语言环境中的应用瓶颈。随着人工智能技术的飞速发展,大模型正逐渐成为提升各行业效率的重要工具。然而,传统以英文为母语的大模型在小语种环境中表现不佳,常常面临 “语言错乱” 和推理信息混乱的问题,这严重制约了其全球化应用。

  为应对这一挑战,蚂蚁数科的研究团队开发了这一新框架,并在多文化多语言视觉问答基准测试(CVQA)中取得了显著成果。该框架在埃及阿拉伯语、印尼爪哇语、巴哈萨语及巽他语等资源稀缺的小语种上表现尤为突出,展现出卓越的多语言识别能力,成功跻身榜首。

  月之暗面推Kimi Linear模型:处理长上下文速度提高了2.9倍

  在人工智能生成内容(AIGC)领域,月之暗面团队推出的 Kimi Linear 模型取得了显著的技术进展。这一创新模型在处理长上下文时的速度提高了2.9倍,解码速度提升了6倍,突破了传统全注意力机制的性能瓶颈。Kimi Linear 采用了一种混合线性注意力架构,特别是在上下文处理和强化学习等多个场景中,表现超过了常用的 Softmax 注意力机制。

  传统的 Transformer 模型使用 Softmax 注意力机制,计算复杂度高达 O (n?),这使得处理长文本时计算量和内存消耗呈指数级增长,严重影响模型的实际应用。而线性注意力的提出将这一复杂度降低至 O (n),使得处理效率有了大幅提升。然而,早期的线性注意力在性能上并不理想,尤其是在长序列的记忆管理方面存在局限性。

  Kimi Linear 模型的核心创新是 Kimi Delta Attention(KDA),它通过引入细粒度的门控机制,改善了模型的记忆管理能力。KDA 能够根据输入动态调整记忆状态,有效地控制信息的遗忘与保留,从而更好地处理长时间交互中的信息。






欢迎光临 A5sh.com - 全球挚爱极客社区 (https://www.a5sh.com/) Powered by Discuz! X3.5