LongCat 相关话题

TOPIC

256K 文本预加载提速超 50%,还解锁了 1M 上下文窗口。 美团龙猫LongCat系列新年出招,发布全新稀疏注意力机制 LoZA(LongCat ZigZag Attention)。 新技术集中火力,重点解决长文本任务的理解、算力难题。 相比于 LongCat 系列之前的全注意力MLA 机制,LoZA 只改了一半的核心模块。 但模型长文本能力从 256K 扩展到 1M,解码速度还快了不少。 甚至比同类型的 Qwen-3 模型表现还要好。 接下来看具体方案。 全注意力机制的算力瓶颈在于平方
  • 共 1 页/1 条记录
服务热线
官方网站:dlxindongneng.com
工作时间:周一至周六(09:00-18:00)
联系我们
QQ:2852320325
邮箱:dlxindongneng.com @qq.com
地址:武汉东湖新技术开发区光谷大道国际企业中心
关注公众号
庄闲游戏手机App

Copyright © 1998-2026 庄闲和游戏官方网站™版权所有

dlxindongneng.com 备案号 备案号: 沪ICP备2024083522号-12

技术支持:®庄闲游戏  RSS地图 HTML地图

回到顶部