游客您好
第三方账号登陆
推荐阅读
天使羽毛1 中级会员
未知星球 | 未知职业
  • 关注0
  • 粉丝0
  • 帖子62
精选帖子

蚂蚁数科推出多语种视觉大模型训练框架

[复制链接]
天使羽毛1 发表于 昨天 20:15 | 显示全部楼层 |阅读模式 打印 上一主题 下一主题
  蚂蚁数科推出多语种视觉大模型训练框架,高效识别文档伪造与逻辑矛盾

  近日, 蚂蚁数科在香港金融科技节上发布了一项革命性的技术 ——“多语种多模态大模型训练框架”,旨在解决当前大模型在多语言环境中的应用瓶颈。随着人工智能技术的飞速发展,大模型正逐渐成为提升各行业效率的重要工具。然而,传统以英文为母语的大模型在小语种环境中表现不佳,常常面临 “语言错乱” 和推理信息混乱的问题,这严重制约了其全球化应用。

  为应对这一挑战,蚂蚁数科的研究团队开发了这一新框架,并在多文化多语言视觉问答基准测试(CVQA)中取得了显著成果。该框架在埃及阿拉伯语、印尼爪哇语、巴哈萨语及巽他语等资源稀缺的小语种上表现尤为突出,展现出卓越的多语言识别能力,成功跻身榜首。

  月之暗面推Kimi Linear模型:处理长上下文速度提高了2.9倍

  在人工智能生成内容(AIGC)领域,月之暗面团队推出的 Kimi Linear 模型取得了显著的技术进展。这一创新模型在处理长上下文时的速度提高了2.9倍,解码速度提升了6倍,突破了传统全注意力机制的性能瓶颈。Kimi Linear 采用了一种混合线性注意力架构,特别是在上下文处理和强化学习等多个场景中,表现超过了常用的 Softmax 注意力机制。

  传统的 Transformer 模型使用 Softmax 注意力机制,计算复杂度高达 O (n?),这使得处理长文本时计算量和内存消耗呈指数级增长,严重影响模型的实际应用。而线性注意力的提出将这一复杂度降低至 O (n),使得处理效率有了大幅提升。然而,早期的线性注意力在性能上并不理想,尤其是在长序列的记忆管理方面存在局限性。

  Kimi Linear 模型的核心创新是 Kimi Delta Attention(KDA),它通过引入细粒度的门控机制,改善了模型的记忆管理能力。KDA 能够根据输入动态调整记忆状态,有效地控制信息的遗忘与保留,从而更好地处理长时间交互中的信息。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright © 2025 A5sh.com ( 苏ICP备20011375号-3 )