庄闲和游戏网 不用额外缓存!英伟达开源大模型记忆压缩方案,128K上下文提速2.7倍
2026-01-17提高大模型记忆这块儿,美国大模型开源王者——英伟达也出招了。 联合 Astera 研究所、斯坦福大学、UC 伯克利、加州大学圣地亚哥分校等机构推出了TTT-E2E方法。 在 128K 超长文本上处理速度比全注意力模型快 2.7 倍,处理 2M 上下文时提速达 35 倍,性能还不打折。 这项技术与前几天大火的 DeepSeek 条件记忆模块有所不同。 DeepSeek 的 Engram 模块依赖的是"按需查表"的静态学习路径,而英伟达走的是动态学习的路子,关键在于上下文压缩。 通过实时学习将关键




备案号: