近日,美国知名编程工具企业Cursor推出的新一代编程模型Composer 2引发轩然大波。这款被宣称性能比肩OpenAI GPT-5.4和Claude Opus 4.6、价格仅为竞品三分之一的产品,在发布不到24小时后就被曝出关键问题——开发者Fynn在调试其API时发现,模型ID竟包含“kimi-k2p5-rl-0317-s515-fast”的代码片段。
技术社区瞬间沸腾,特斯拉创始人马斯克更是在社交平台直言:“这就是Kimi 2.5”。面对舆论压力,Cursor联合创始人Aman Sanger承认,团队确实基于Kimi K2.5进行了持续预训练和强化学习,并解释未在公告中提及底座模型是“疏忽”。这一回应与Cursor此前极力塑造的“自研”形象形成鲜明对比。
这并非Cursor首次陷入类似争议。2025年11月其发布Composer 1时,就有开发者发现模型推理过程中偶尔输出中文,且分词器与DeepSeek高度相似。当时Cursor选择沉默应对,未对质疑作出任何回应。
与Cursor遮遮掩掩的态度不同,Kimi的回应显得颇为大度。其官方声明祝贺Cursor团队发布新产品,并表示“自豪地看到Kimi K2.5成为其技术基础”,甚至解释Cursor是通过Fireworks AI平台合法接入Kimi模型的商业合作行为。
无独有偶,日本乐天集团3月17日发布的Rakuten AI 3.0也遭遇类似尴尬。这款被吹捧为“日本最大规模高性能AI模型”的产品,被网友发现直接套用deepseek_v3旧版模型。尽管乐天集团未作回应,但日本网友纷纷吐槽:“DeepSeek都更新到V3.2了,乐天还在用旧版包装。”
这场风波折射出AI行业的一个现实:当技术壁垒逐渐透明化,企业间的竞争将转向产品化能力、数据积累和用户体验等维度。对于中国大模型公司而言,这或许是个重要机遇——当全球开发者自发选择中国模型作为技术底座时,技术影响力已超越地域限制。












