最近,Cursor声称自主研发的模型曝光了抄袭行为,创始人承认忘记署名。
Kimi直接开喷了
在这次争议中,Cursor和开源模型的开发者产生了冲突。
月之暗面的另一位联合创始人周昕宇也加入了批评行列,指责Cursor未申请授权。
一些网友在Cursor平台上发现了使用Kimi K2.5模型的证据,引发了更大范围的讨论。
Cursor在事件发酵后承认了自己的模型实际上基于Kimi模型。
创始人表示忘记署名,但没有给出详细的解释。
追溯到Cursor发布新模型的那天,他们声称自己的模型名为Composer 2,性能优于Claude。

一些用户反馈体验不佳,认为与Claude相比还有差距。
然而,真正的转折点出现在网友偶然发现日志文件中显示使用了Kimi模型。

Kimi模型的许可协议要求商业用途需标明模型名称,Cursor显然未能遵守。
月之暗面的联合创始人周昕宇再次公开表示Cursor没有申请授权。

对此,杜羽伦表示难以置信,并直接质问Cursor CEO。
Cursor的回应则显得有些尴尬,没有详细解释,只是表示这是一个失误。
Cursor在发布新模型时强调技术进步,但未提及模型基础。
事实上,Cursor的模型确实进行了技术优化,但核心部分仍是Kimi。
在这次事件之后,Cursor才通过Kimi的官方声明确认了合作细节。
Kimi的官方声明表明Cursor通过FireworksAI获得了授权访问Kimi-k2.5的权限。
Cursor的创始人随后也承认了Kimi模型的强大,并对其表示了赞赏。
至今,Composer 2的博客上仍未见任何关于Kimi的说明。
这次事件并非Cursor首次涉及此类问题,之前也有类似的争议。

当时,网友就对Cursor声称的自主研发表示过怀疑。
由于缺乏透明度,很多用户对Composer的真实性持保留态度。
一些用户发现该模型的表现与智谱GLM非常相似,进一步引发质疑。
Cursor面对这些质疑,既没有承认也没有否认。

全网炸锅。
事实上,使用开源模型进行商业应用在业界并非罕见。
但为时已晚。

从零训练一个模型成本高昂,而使用现成的开源模型则更为实际。
日本的Rakuten AI 3.0模型也被曝出基于其他开源模型的事实。
开源社区的开发者迅速发现了其模型类型与DeepSeek-V3完全一致。
被社区质疑后,乐天才紧急补上了承认来源的文件。

这种行为虽然不好,但也从侧面证明了中国开源模型的实力。
论:Kimi如何冲刺500亿美金估值?
建议:下场做个AI IDE。
调侃归调侃,但也许……Cursor和月之暗面私下签了什么特殊定制协议呢?
毕竟体量这么大,这也是一次重磅级的发布,应该不至于白嫖吧???

直到月之暗面联创周昕宇下场,一记重锤锤死Cursor。
我好像不记得Cursor有来找我们申请授权。

杜羽伦,得知消息后,当即去测了Composer 2的API,随即在技术层面给出更多证据。
结论:这模型的tokenizer,和Kimi一模一样。
几乎可以实锤,Cursor「暴打」Claude的最强自研模型,就是在Kimi基础上做了一道后训练。
仅此而已。
对此,杜羽伦表示「难以置信」。
Cursor既没有遵守我们的许可协议,也没有向我们支付任何费用。
随即直接点名Cursor CEO:
Michael Truell,为什么??

舆论彻底被引爆。

大概就是在嘲讽Cursor死不承认,结果现在被人家抓了现行。
印象最深刻是这条评论,攻击力极强:
「如果你是套壳AI应用,就好好当你的模型二道贩子,别装得自己很懂模型一样。」

如今再回头看Cursor当时更新「自研」模型表态,确实很感慨啊:
这些性能提升,来自我们首次进行的持续预训练,为后续扩展强化学习提供了坚实基础。
实在有些尴尬。
Cursor此次最大的卖点是强化学习,他们确实搞出了一种自我总结的RL方法,能解决上下文过长的问题。
但是,预训练???
哈??

谁曾想呢,帮助Cursor翻身把歌唱,把Claude压着打的,其实是Kimi。

反转来了?
以上是昨天夜间发生的故事,等今早一觉睡醒,想不到还有新瓜可吃。
X上,周昕宇和杜羽伦的相关推文、回复全没了。
Kimi的一条官方声明成了唯一的回应:
恭喜Cursor团队发布Composer 2!
我们很高兴看到Kimi-k2.5成为其基础模型。看到我们的模型通过 Cursor 的持续预训练和高算力强化学习训练被有效整合,这正是我们所支持的开放模型生态。
补充说明:Cursor是通过FireworksAI提供的托管强化学习与推理平台来访问Kimi-k2.5的,这是一个经过授权的商业合作关系。
不用过多翻译,读到这儿的你肯定已经和我会心一笑了吧doge。
优雅,实在太优雅了。

随后Cursor创始人Aman Sanger好像也终于想起了开源协议这件事,上来就对Kimi一顿猛夸:
我们做了很多评估,Kimi k2.5是最强的!

至于为什么发布博客里没署名?
Aman Sanger没有详细解释,只以滑跪结尾,说是一个失误,并表达了歉意。

网友们当然不会买账。
这这这,Cursor在发布新模型后一顿技术解读,又是预训练,又是RL的,换谁也不相信是单纯忘记署名了啊。
哦,忘记说了,其实模型用的是Kimi,但我们自己做了很多技术优化噢。

截至发帖,Cursor依然未在Composer 2的博客上补充任何Kimi相关说明。

One More Thing
其实,Cursor也不是头一次干类似的事儿了,只是之前没像这次被苦主用铁锤锤死。
Composer刚出来,就有网友对Cursor「自研」的真实性表示过怀疑。
主要博客实在写得太含糊了,只说用了RL、在MoE架构上做了优化,对模型底子完全只字不提。
Composer的透明度缺失简直离谱。他们提到用了强化学习,但没交代模型的其他训练过程。
到底是自己预训练的,还是拿现成模型改的?
在他们公开更多细节、或有人能独立复现结果之前,我对这些说法都持保留态度。

后面确实也被网友扒出来蛛丝马迹,该模型的CoT里总是会莫名突然冒出中文;此外,模型表现和智谱GLM非常相似。
面对这些质疑,Cursor对此从没承认,也从来没否认。
不过,智谱的开源协议采用的是MIT,也就是说使用其模型的产品,即便商用,也不对署名做强制要求。
其实在业内,套壳这件事对小公司来说,也很正常。
从零训一个coding模型,成本太高了,风险也大,为了市场还必须持续抢SOTA,算力和时间成本都不划算。
在此背景下,好用又开源的国产模型,无疑成了资源受限条件下的最佳选择。
不止初创公司,就连日本闹得沸沸扬扬的「最强自研模型」Rakuten AI 3.0,也没能撑住。
发布不到12小时,就有,开源社区开发者直接在Hugging Face仓库的config.json文件里看到:
“model_type”: “deepseek_v3”
参数规模、MoE结构……几乎和DeepSeek-V3一模一样啊。
更火上浇油的是:初始上传时,乐天疑似故意没上传DeepSeek原有许可文件和NOTICE,只留自家Apache 2.0。
被社区锤爆后才紧急补上一个NOTICE文件,承认来源。
怎么说呢,「拿来主义」确实很不好……
但也算是某种对中国模型实力的侧面印证吧。
参考链接:
[1]https://x.com/fynnso/status/2034706304875602030
[2]https://x.com/Kimi_Moonshot/status/2035074972943831491
[3]https://x.com/amanrsanger/status/2035079293257359663

Jay