首页能源头条推荐资讯详情
DeepSeek V4在前,美团LongCat跟进,中国AI迈过算力门槛
发布者:
来源:
01
两个重磅
2026年4月下旬,中国AI产业同时抛出两枚重磅筹码:DeepSeek V4与美团LongCat-2.0-Preview。两者参数规模均进入万亿级,均支持1M上下文窗口,单次推理可处理百万字级输入,把中国大模型竞争推入了一个新的密集迭代窗口。
如果放在全球竞争的坐标看—— OpenAI继续以GPT系列维持闭源模型的能力上限,Google Gemini和Anthropic Claude仍在多模态、代码、长上下文和Agent能力上加速推进;国内则形成DeepSeek、Qwen、Kimi、MiniMax、智谱、豆包、LongCat等多线并行局面。
两条线都在加速,但路径和生态已明显分化。
中国模型的优势不再只是“追得快”,而是在开源、低成本、高调用量和垂直场景中不断形成自己的路径。
DeepSeek V4的上线称得上“万众瞩目”,但团队依然克制低调,外部情绪也不像1年前R1横空出世般强烈。
这并不奇怪。DeepSeek第一次破圈时,真正震动行业的并不是“绝对性能第一”,而是“接近一线能力 + 极低调用成本”带来的性价比冲击。当一家公司已经把公众期待抬到极高位置,后续每一次大版本迭代,都很难再复制第一次出圈时的情绪强度。
但从技术演进看,DeepSeek V4的百万字上下文能力、MoE架构、推理效率、成本控制,以及对国产算力的深度适配,共同构成了这一代模型的真实看点。开发者社区对其代码、复杂文档处理和长文本推理能力,都给予了较高关注。
真正值得注意的是,DeepSeek V4把长文本推理成本继续向下压。过去,百万级上下文、复杂推理和Agent编排往往意味着高昂token成本,只有大厂或预算充足的团队能长期试错。如今,当头部模型调用成本持续下降,AI应用的盈亏平衡线就会被重新改写。
成本革命,往往是技术普及的前夜。
从这个角度看,DeepSeek V4仍然是一次成功且激进的迭代。它没有单纯走“堆卡堆钱”的路线,而是通过稀疏注意力、MoE、推理系统优化和国产算力适配,在资源约束下继续追求单位成本性能的最优解。
让这次更新上升到产业层面的,是国产算力适配的细节。围绕DeepSeek V4的讨论,很快从“模型能力如何”,转向“它运行在什么硬件和软件生态上”。这说明,中国大模型竞争已经进入更底层的阶段:不仅要做出强模型,还要证明模型可以在国产算力体系中训练、部署和规模化调用。
几乎在同一个时间窗口,美团LongCat-2.0-Preview开放测试。
它同样进入万亿参数量级,与DeepSeek V4相似的不仅是参数规模,还有两者都把“大模型能力”与“国产算力适配”放在同一张牌桌上。
LongCat-2.0-Preview有一个更进一步的标签:公开信息显示,它训练推理全程依托国产算力集群完成,训练阶段使用了约5万至6万张国产算力卡,是迄今国产算力上完成的最大规模大模型训练任务之一,也是目前为止公开口径中唯一一个国产卡训练的万亿大模型。
这句话的分量,需要放在中国AI产业过去两年的算力现实中理解。
如果说DeepSeek V4证明了“国产芯片可以支撑头部模型的关键环节”,那么LongCat-2.0-Preview进一步证明,国产算力并不是只能做验证性适配,而是有能力承担万亿参数模型的全流程训练和推理。它不是一次孤立的模型更新,也在系统展示国产算力的工程化能力。
一方面,DeepSeek继续用低成本和高效率推动AI应用普及;另一方面,LongCat-2.0-Preview用全程国产算力训练推理,验证了国产算力在大规模真实训练任务中的可用性。两者相继出现,意味着中国AI牌桌上多了一个重要的变量。
这也是为什么美团的加入值得关注。它并不是一家传统意义上的模型公司,却拥有本地生活、履约网络、商家经营、无人配送、无人机、消费搜索和即时零售等大量真实场景。对大模型而言,真实场景不是锦上添花,而是决定模型能否持续迭代的燃料。
02
从V4的“心脏移植”到LongCat的全程国产化
国产算力上跑出了万亿级的大模型,对产业是突破,但对其中的工程师更像是一场 “心脏移植”手术。
DeepSeek V4的千呼万唤,表面看是时间节点变化,实质上反映的是从成熟CUDA生态向国产算力软件栈迁移时,必须补上的工程课。
长期以来,英伟达CUDA生态的优势不只在芯片本身,也在编译器、算子库、通信框架、调试工具、开发者习惯和大量历史经验。大模型公司过去在CUDA生态里训练、调参、部署,很多基础能力已经接近“默认可用”。但迁移到国产算力体系后,很多原本被生态封装掉的问题,会重新暴露在工程团队面前。
最耗时的,往往不是把代码“搬过去”,而是让同一个模型在不同硬件和软件栈上跑出一致、稳定、可复现的结果。
这正是国产算力适配中最难的部分。算子重写、通信优化、精度对齐、混合精度训练、显存调度、故障恢复,每一项都不性感,却都绕不过去。没有这些工程工作,所谓国产替代就很容易停留在演示层面,而无法进入真正的大规模生产。
DeepSeek V4的意义,正在于它把这种工程迁移推向了头部模型级别。它让行业看到,即使在外部高端GPU供应受到约束的情况下,中国大模型仍然可以通过架构创新和系统工程,继续实现高强度迭代。
当然,国产芯片并不是在所有维度上已经完全等同于成熟国际生态。更准确的说法是,在部分硬件指标、软件生态成熟度、开发者工具链和训练经验沉淀方面,国产体系仍在追赶和补课;但在真实大模型任务中,它已经开始具备支撑头部模型的能力。
LongCat-2.0-Preview的价值,则在于从训练到推理全程依托国产算力集群完成。
这使它具有更强的原生意义。
美团大模型团队在国产算力训练过程中,显然趟过了不少坑,也沉淀了相当多工程能力。万亿参数级模型不是把卡堆起来就能跑。训练任务一旦进入数万卡规模,任何一个节点、链路、算子、调度策略或精度问题,都可能导致训练中断、结果漂移或效率崩塌。
首先,是并行策略与显存优化。
万亿参数级MoE模型对显存、通信和调度提出极高要求。国产算力体系在不同芯片形态、内存带宽、互联结构和软件栈上,与英伟达成熟生态并不完全相同。要在这样的系统中训练万亿模型,团队必须重新设计并行策略、通信路径和显存复用方式,把硬件资源压榨到足够高的效率。
其次,是底层软件栈的成熟度。
CUDA生态是多年训练、部署、开源社区和商业应用“熬出来”的。国产软件栈进步很快,但在复杂任务中仍需要模型团队深度参与优化。LongCat团队很可能针对国产芯片特性重写或优化核心算子,并建立更严格的数值一致性与可复现机制。
再次,是万卡集群的稳定性。
大规模训练不是单点性能竞赛,而是复杂软硬件系统工程。长期以来,即便是全球顶级模型团队,也很少有人能轻松保证万卡集群长时间稳定运行。链路波动、硬件故障、执行超时、计算差异、中间状态恢复,都会影响训练效率和最终结果。
LongCat-2.0-Preview的训练实践,说明美团团队至少建立了覆盖容错、检测、恢复和调度的工程体系。这些不是论文里的能力,而是在数万张国产卡训练任务中被逼出来的能力。
实际上,这些工程沉淀也会反哺到国产芯片生态。
芯片厂商最需要的,不只是实验室benchmark,而是真实大模型训练中的压力测试数据。哪些算子拖慢训练,哪些通信链路容易抖动,哪些场景会出现数值差异,哪些调度策略最有效,只有真实任务才能给出答案。LongCat-2.0-Preview这样的项目,实际上把模型公司和国产算力厂商推向了相向而行的道路。
这也是它区别于普通模型更新的地方。
它不只在模型参数上增加一个名字,也在国产算力体系里留下了可复用的工程经验。
03
为什么是现在?聊聊美团的“隐性基因”
LongCat-2.0-Preview的出现,更像是美团将AI嵌入业务流程许久后,浮出水面的那一截。
要理解这件事,需要先理解美团的AI需求,与很多互联网公司不同。
美团不是纯内容平台,也不是纯搜索平台,更不是单一办公软件或云服务公司。它连接的是大量真实的物理世界服务:餐饮、外卖、到店、酒旅、即时零售、配送、商家经营、无人机、无人车、骑手调度、门店运营。
这些业务的特点是:数据密度高,履约链条长,供需匹配复杂,用户对结果极其敏感。
用户问一句“附近有什么适合两个人吃的川菜”,背后不是简单文本生成,而是商家质量、距离、价格、优惠、排队时间、营业状态、评价结构和用户偏好的综合判断。商家问“这个位置能不能开店”,背后也不是一句建议,而是商圈、客流、竞品、租金、客单价、配送半径和历史经营数据的综合推演。
痛点,爽点,都有AI介入的空间。AI要落地,离不开真实业务的需求。恰恰美团有大量可以被AI提效的高频场景。
因此,美团的AI产品,应放在一个更大的逻辑里理解:AI正在从“展示能力”转向“嵌入业务流程”。
比如在C端,AI管家“小团”刚刚针对五一假期进行了能力更新,帮助用户压缩找店、比价领券、看评价、路线安排等环节的选择成本。在B端,袋鼠参谋、智能掌柜等工具,指向的是商家经营提效。选址、评价分析、菜单优化、接待回复、促销建议,这些原本依赖经验和人工处理的工作,正在被AI工具逐渐辅助。
用户关心体验和效率,商家关注转化和经营效果,都要求LongCat在美团的核心业务中拥有真实落点。
财报与公开沟通中,美团多次强调通过AI技术提升本地生活服务体验,并将AI能力与即时零售、商家经营、履约网络和物理世界服务连接起来。换句话说,目标是为提升整个服务网络的效率。
这也是“物理AI底座”这一说法的来源。
AI不只要理解文本和图片,还要理解真实世界中的人、货、场,路、店、仓,以及运力和末端设施。
天然处在数字智能和物理世界的交界地带——这也解释了为何美团在AI大模型、半导体/AI智能硬件赛道,很早就有布局。
公开信息显示,美团在硬科技领域至少投资了43家公司,包括智谱AI、月之暗面、摩尔线程、沐曦股份、银河通用、禾赛科技、轻舟智航等独角兽企业。看似分散,实际可以排列成一张链路:上游是算力与模型,中游是感知与决策,末端是机器人、自动驾驶和物理执行。
LongCat-2.0-Preview不是孤立出现的。业务特点,要求美团的模型定位有所不同。
DeepSeek用模型能力和成本效率打开全球开发者生态;LongCat试图把大模型嵌入一个真实的服务网络,在国产算力底座上验证它能否长期跑起来。
04
海外视角下的中国AI“换芯”
当DeepSeek V4和LongCat-2.0-Preview相继把国产算力推到台前,海外产业界最敏感的人之一,正是黄仁勋。
在与Dwarkesh Patel的播客对话中,黄仁勋并不赞成把中国AI产业简单排除在英伟达生态之外。他反复强调,计算生态不是汽车,不能随意切换;生态一旦形成,就有高替换成本。对英伟达而言,让中国AI开发者继续留在CUDA体系内,显然比把他们推向替代生态更符合自身利益。
这段话的价值,从外部视角解释了国产算力替代的真正难度。
芯片供应受限并不只是“少了几块卡”。一旦不能稳定获得先进GPU,就必须重建从芯片、软件栈、编译框架、算子库、通信协议到训练工程的整套能力。这个过程成本极高,也很痛苦,但一旦被迫完成,就会削弱原有生态的垄断黏性。
这正是黄仁勋担心的地方。
DeepSeek过去的破圈,已经让业内意识到,中国模型不仅能实现高性能,还能在极低成本下开放调用和部署。Qwen、Kimi、MiniMax、智谱等模型的持续迭代,也在不断丰富海外开发者对中国模型阵营的认知。如今LongCat又带来一个新变量。
海外用户对这些模型的评价,通常不是单一的“振奋”或“质疑”。开发者会关注速度、成本、长上下文、代码能力和开放程度,也会继续讨论幻觉、稳定性、多模态能力和真实复杂任务表现。
这种就事论事的反应,恰恰说明它们不再只是被观察的追赶者,而是能在成本、效率、开源、国产算力适配和真实场景上,给全球AI产业提出新议题的发起者。
国产算力,万亿参数,丰富的场景被放到一起,也是中国AI“换芯”叙事中,一步落地的验证。
结语
国产算力时代的起点
DeepSeek V4和LongCat-2.0-Preview相继亮相,标志着中国大模型竞争正在从单纯模型能力比拼,进入复合竞争阶段。
如果中国模型长期运行在CUDA生态里,哪怕中国公司做出很强模型,底层生态的主动权仍然握在别人手里。
反过来,如果中国公司在国产算力上训练、推理、调优、部署,并逐渐沉淀自己的工程体系,全球AI产业就可能出现更明显的双生态结构。
国产算力生态显然还要补足短板,中国大模型短期内也远不能脱离外部算力。但至少4月底的集体动作证明,通过架构创新、系统工程和产业协同,已经能实现模型能力的迭代。
AI不存在“便宜大碗”就能过关斩将的情况。未来的考验在于,能否在市场条件下持续迭代,建立稳定的开发者生态、应用生态和商业闭环。
无论如何,中国AI已经证明:在关键算力受到约束的条件下,模型创新并不会因此停摆,架构创新、系统工程、国产芯片生态和真实业务场景放在一起,是一条可以往前走的路。这是中国AI产业,在今年春天给出的回答。
反馈举报
声明:以上信息仅代表发布者自身观点,并不代表本平台赞同其观点,也不代表本平台对其真实性负责。
大家都在看

广告
评论 0
网友评论仅供其表达个人看法,并不表明平台立场。全部评论
加载失败
总发布:320粉丝:0
相关推荐
- 加载失败
- 加载失败
- 加载失败
- 加载失败
- 加载失败
新经济资讯
- 加载失败
向日葵
- 加载失败
- 加载失败
- 加载失败
往事随風
- 加载失败







