搜索: "预训练模型"

共找到 2 篇相关文章

Kimi套壳Cursor曝光,最强「自研」模型遭质疑!创始人回应:忘记标注来源

Kimi套壳Cursor曝光,最强「自研」模型遭质疑!创始人回应:忘记标注来源

最近,关于开源模型的争议再次引起广泛关注。这次,事件的焦点集中在一家国产开源模型与硅谷初创公司之间。值得注意的是,双方在这次事件中的立场似乎发生了转变。月之暗面的预训练模型负责人杜羽伦,直接点名Cursor的CEO Michael Truell,质问其为何没有遵守许可协议且未支付任何费用。月之暗面的另一位联合创始人周昕宇也对Cursor进行了严厉批评。周昕宇表示,他不记得Cursor曾经向他们申请

科技2 阅读
ICLR 2026 | LightMem:降低大型模型的长期记忆成本

ICLR 2026 | LightMem:降低大型模型的长期记忆成本

大规模预训练模型虽然表现出色,但在处理“长对话、多轮交互和跨任务”等复杂场景时,依然面临两大挑战:其一为上下文窗口的限制,在对话持续增长的情况下容易出现信息过载;其二是中间环节的信息丢失问题,即便能容纳所有数据也不一定能有效利用。因此,引入“外部记忆系统”成为必要:将对话内容储存于长期记忆,并在需要时进行检索。然而这一方案的实际应用却带来高成本的问题:频繁调用大模型执行总结和提取、实时解决冲突以及

科技1 阅读