寒武纪的“榜一大哥”,字节跳动不想当了

钛度号
第三方芯片厂商进入“倒计时”

文 | 超聚焦

为了把利润留在自己锅里,字节选择下场造芯。

近日,据蓝鲸科技报道,字节跳动芯片研发团队将开始规模化招聘,具体招聘城市涵盖北京、上海、深圳等,所需职位包括芯片架构、soc设计等。

该知情人士透露,字节跳动芯片研发团队目前核心集中于芯片设计环节,围绕公司自身业务开展专用硬件定制与优化,面向云端场景研发多款采用先进半导体工艺的复杂芯片,以提升性能、降低算力成本。

“目前字节芯片团队已实现多次一版成功流片,早期多个项目进入量产部署阶段,覆盖多个主流先进工艺节点,整体研发与落地节奏稳步推进。”

而在团队规模上面,据雷达Finance报道,字节的AI芯片团队和CPU团队人数较多,其中,AI芯片方向人数过半,达500人以上,CPU团队在200人左右。

然而,千人团队的集结仅仅是一个开始,真正的博弈才刚刚拉开序幕。

面对日益增长的AI投入,自研芯片能否帮助字节跳动彻底摆脱“给英伟达打工”的魔咒,将昂贵的算力成本转化为火山引擎的独家利润?又能否复刻谷歌TPU的神话,利用极致的软硬协同重新定义MaaS市场的定价权?

而对于寒武纪等刚刚盈利的国产芯片厂商而言,大厂的每一次流片成功,究竟是市场繁荣的信号,还是那个残酷的“去中介化”倒计时?

01 昂贵的“过路费” 字节不得不算的千亿开支账

自研芯片,是一笔不得不算的经济账。

据金融时报报道,字节跳动2026年的资本开支拟达到约1600亿元人民币,高于2025年约1500亿元人民币的投入,其中约一半资金将用于采购先进半导体芯片以开发AI模型和应用,而若获准采购更多先进芯片,还会进一步大幅增加资本开支。

如果倒退回五年前,用于AI芯片的这笔钱字节跳动花得起,也愿意花。

彼时,AI在字节的版图中仅仅是一个“优化项”,主要用于推荐算法的提效或广告系统的精准度提升。但随着“豆包”大模型及豆包、即梦等AI应用的全面爆发,情况发生了根本性的逆转。据QuestMobile数据显示,豆包APP在2025年底的月活用户已稳居国内AI类应用榜首,且用户时长呈指数级增长。

与此同时,作为字节跳动B端业务全新增长极的火山引擎,也在经历一场前所未有的算力饥渴。

在经历了将大模型价格打入“厘时代”的激进价格战后,火山引擎通过极致性价比策略,正在将日均处理Token推向了百万万亿级别。这种以价换量的策略虽然抢占了MaaS的市场份额,但也让底层的算力承压达到了临界点,火山不仅要支撑内部数亿用户的即时交互,还要响应外部企业客户海量的API调用。

于是,当AI业务从“锦上添花”变成了公司的“核心增长极”,算力消耗的性质也变了:它不再是研发投入,而是每一分钟都在流血的运营成本。

当数以十万计的GPU在机房轰鸣,每一秒钟流走的不仅是电费,更是被英伟达等上游硬件厂商切走的巨额利润。对于拥有数亿日活用户的“豆包”和视频生成模型而言,推理环节的算力消耗远超训练环节,这恰恰是成本失控的“重灾区”。

如果继续依赖价格昂贵的通用GPU来处理海量的用户请求,不仅意味着持续给供应商“打工”,更意味着火山引擎在对外提供MaaS服务时,难以掌握定价的主动权。

这并非危言耸听,看看供应商的财报就知道“打工”打得有多惨烈。

在AI芯片的卖方市场里,定价权完全掌握在上游手中。据The Information分析,英伟达高端GPU的毛利率长期维持在70%以上的高位。对于字节跳动这样千亿级采购规模的超级大客户来说,这意味着每花100块钱买芯片,就有70块钱是在给黄仁勋交“过路费”。

即便是在被视为“平替”的国产芯片领域,情况也并未好转太多。以字节跳动核心供应商之一的寒武纪为例,其2025年财报显示,受益于互联网大厂的疯狂扫货,公司不仅实现了历史性盈利,其思元系列推理卡的毛利率也随着规模效应开始攀升,公司毛利率也超过50%。

于是,一个很残酷但也很清晰的逻辑浮现了:上游芯片厂商的超额利润,本质上就是字节跳动和火山引擎的成本黑洞。

在存量竞争时代,供应商的每一分利润,都是字节可以挖掘的降本空间。既然推理芯片并不需要像训练芯片那样追求极致的通用性和双精度计算能力,那么为什么要把这几百亿的利润拱手让人?

更何况,在全球科技巨头的牌桌上,“自研芯片”早已不是一道成本选择题,而是一道能力证明题——证明你是否有资格成为真正的云巨头。

放眼海外,谷歌早在十三年前就开启了TPU的研发。而当外界大力争抢英伟达显卡时,谷歌却默默祭出了TPU。正是凭借TPU与TensorFlow框架的软硬一体化,谷歌在保证自家搜索、YouTube推荐等庞大业务算力需求的同时,将单位算力成本压缩到了竞争对手的几分之一,甚至还开始了TPU的外售,扮演起了“第二英伟达”的角色。

目光转回国内,阿里云走的也是自研的道路。

1月底,平头哥官网上线了最新一代AI芯片“真武810E”,性能直接对标海外芯片巨头英伟达的H20,出货量已达10万片,超过寒武纪,在国产GPU厂商中属于第一梯队。并在阿里云实现多个万卡集群部署,并服务了国家电网、小鹏汽车等400多家客户。

更重要的是,阿里云也借此实现了“平头哥+阿里云+千问模型”黄金三角的闭环。

据雷峰网沟通的推理框架优化专家张涛解析,“以DeepSeek推出大型MoE模型为例,其本质便是在云端集群场景下实现了极致的模型与硬件的co-design,以此最大化释放算力性能,而阿里的全栈自研将是更‘激进’的原生适配方案。”

对于字节跳动而言,前有谷歌TPU的“珠玉在前”,后有阿里PPU的“近身示范”,此时下场造芯,不仅是出于成本控制的防守,更是为了在MaaS战争中复刻谷歌神话的进攻。当算力成本决定了模型定价的底线,没有自研芯片的云厂商,注定只能是英伟达的“售票员”,永远无法触碰到商业闭环的核心利润。

为了不当这个“售票员”,字节跳动必须掌握这种“量体裁衣”的技术。

正如张涛所言,极对于互联网企业来说,极致的Co-design才是破局关键。相比于采购通用GPU,自研的ASIC芯片更像是一把精准的手术刀,它能针对字节独有的推荐算法和Transformer架构进行深度定制,剔除所有冗余的通用功能,把每一颗晶体管都用在刀刃上。

业界估算,这种极致的专用性,能将单位算力成本降低50%以上。这不仅仅是技术指标的胜利,更是商业逻辑的质变:当采购规模突破了“自研盈亏平衡点”,下场造芯就从一种可有可无的技术储备,变成了巨头博弈中必须跨越的生存门槛。

只有把算力的“水龙头”彻底掌握在自己手里,字节跳动才能在未来惨烈的模型价格战中,拥有不用看别人脸色的底气。

02 芯片“去中介化”谁在寒冬里发抖?

然而,商业世界的甲之蜜糖,往往是乙之砒霜。

当字节跳动决心将那几百亿的“超额利润”留在自己锅里时,对于刚刚在2025年尝到甜头的国产芯片厂商而言,这不仅仅意味着丢失了一个大客户,更意味着一场关于“去中介化”的生命倒计时正式开启。

回顾这段关系的起点,字节跳动与寒武纪的联手,从一开始就带有浓厚的“备胎”色彩。

如果将时间轴拨回两年前,这是一场在极端外部压力下的“抱团取暖”。彼时,受制于禁令因素,A100/H100军无法正常供应,虽然随后推出了H800、H20等“阉割版”的产品,但这把悬在头顶的达摩克利斯之剑让所有互联网巨头都感到脊背发凉。在供应链最黑暗的时刻,字节跳动急需一个“Plan B”来对冲英伟达随时可能断供的风险。

而作为国产AI芯片“第一股”的寒武纪,凭借其思元系列产品,成为了当时为数不多能拿出量产现货、且软件栈相对成熟的供应商。

这是一场典型的“基于恐惧的采购”,而非“基于性能的优选”。

据产业链调研数据显示,2023年至2024年间,字节跳动在疯狂扫货英伟达合规芯片的同时,开始向寒武纪下达了规模可观的意向订单。这些芯片并没有立刻被部署在核心的推荐算法集群中,而是主要用于部分非核心业务的推理场景测试。

这种合作在2025年达到了顶峰:随着字节AI产品爆发,推理算力需求激增,而英伟达产能吃紧,寒武纪的思元590芯片成功切入了字节的供应链体系,填补了部分算力缺口。

正是得益于字节跳动、百度、阿里等互联网大厂的这种“避险性采购”,寒武纪迎来了它成立以来的最高光时刻。

2025年,寒武纪营收实现了惊人的翻倍式增长,一举突破60亿元人民币大关,同比增长率超过200%;更重要的是,它终于跨越了那道困扰了自身多年的财务天堑,实现了历史性的首次年度盈利。

而在资本市场上,寒武纪的股价随着这份“超预期”的成绩单闻风起舞。从2025年初开始,其股价犹如坐上了火箭,一路击穿各大阻力位,市值一度逼近5000亿大关。那段时间,券商研报都在用最亢奋的语调高呼“中国的英伟达已经诞生”,科技股论坛都在讨论思元系列如何在成为字节的“太子”,甚至还有字节入股寒武纪的小作文传出。

投资者们笃定地认为,国产替代的终局已经到来,寒武纪将像当年的英伟达一样,躺在互联网巨头的算力军备竞赛中,坐享高毛利的红利。

然而,繁荣的表象之下,是极其脆弱的地基。

寒武纪的业绩爆发,本质上是建立在“英伟达供给不足”和“巨头自研尚未到位”这两个时间差之上的。这是一种典型的“窗口期红利”。对于字节跳动而言,2024年到2025年的大规模采购,更多是一场“基于恐惧的避险”和“不得不完成的任务”,而非基于技术与信任的合作。

产业链知情人士曾向超聚焦透露,字节跳动在彼时扫货寒武纪思元590芯片,核心诉求非常简单:填坑。 在英伟达高端算力受限、国产自研芯片尚未量产的空窗期,字节需要大量的现货来维持“豆包”模型指数级增长的推理需求,并且作为互联网第一大厂也有责任与义务扶持国产算力。

换句话说,大厂买你,不是因为你不可替代,而是因为当时只有你“有货”。

而当时间来到2026年,当字节跳动的1000人芯片团队完成了从架构设计到流片验证的全部拼图时,这个昂贵的“备胎”也将逐渐失去存在的意义。

寒武纪作为一家独立的芯片设计公司,其产品迭代周期通常遵循传统的硬件规律,一款芯片从定义到量产往往需要18到24个月。这意味着,当字节跳动的算法团队在2026年提出了一个新的稀疏化注意力机制时,他们如果使用寒武纪的芯片,可能要等到2027年底才能用上硬件加速。

但在字节内部,这个逻辑被彻底重写了。

随着“SeedChip”项目的落地,字节的算法团队可以直接和芯片团队坐在同一个办公室里。这是一种物理距离归零带来的化学反应: 算法工程师上午提出的算子优化需求,芯片架构师下午就能将其写入指令集,甚至直接调整片上内存的配比。通过这种极致的Co-design,字节可以在几个月内实现硬件层面的迭代支持。

当字节可以用更低的成本、更快的迭代速度来满足自身需求时,继续维持寒武纪的高毛利采购,就违背了商业的基本逻辑。

而这场危机,不仅仅属于寒武纪。

目光放宽到整个国产芯片赛道,壁仞科技、摩尔线程等独角兽公司,同样面临着被大厂“降维打击”的风险。这些公司的商业模式,在很大程度上都是试图成为“中国的英伟达”,即通过设计通用的高性能GPU,卖给云厂商和智算中心。

但现实是,他们最大的潜在客户阿里云、字节跳动、腾讯云、百度智能云,无一例外都在疯狂布局自研芯片。

阿里的PPU已经证明了这条路的可行性。其自研的AI芯片已经在阿里内部的推荐和推理业务中大面积铺开,并且开始探索外售的道路。如果说阿里云是第一个吃螃蟹的人,那么字节跳动就是那个紧随其后、且胃口更大的掠食者。

这便是“中间商”在巨头博弈时代的宿命。

在云计算和AI的产业链条中,处于中游的第三方独立芯片设计厂商,正面临着前所未有的“夹层挤压”。

向上,他们无法像英伟达那样拥有无可撼动的CUDA生态护城河,能够让客户“不得不买”;向下,他们又面临着大厂自研芯片的极致性价比竞争。于是,当最大的客户变成了最强的竞争对手,第三方厂商的生存空间将被压缩到极限。

未来,以字节、阿里为代表的互联网巨头,绝不会仅仅将自研芯片锁在自家的机房里做“内部特供”。商业的逻辑永远是追求规模效应的最大化:当“SeedChip”或“真武”经过了内部数百万卡级别的打磨验证,良率稳定、成本极低时,它们必然会走向对外售卖。

届时,这些互联网巨头将完成最可怕的跨界:它们既是最大的云服务商,也是最大的芯片供应商。而在这种降维打击下,留给寒武纪等“特种生存派”的路,只剩下两条。

第一条路是成为英伟达。

在这条路上,你要做的不仅仅是画出最好的电路图,而是要构建出像CUDA一样坚不可摧的软件生态护城河。放眼全球,能走通这条路的独立厂商只有英伟达一个,这需要“天时地利人和”的极致配合。

回顾英伟达的崛起,那是建立在长达15年的“孤独长跑”之上的。黄仁勋在AI爆发前的荒原里,每年烧掉数亿美金推广CUDA,那时没有巨头盯着他,没有云厂商抢他的生意,他拥有充足的时间窗口去“猥琐发育”,将显卡从游戏工具一点点改造成AI引擎。

但现在,这个“天时”已经彻底消失了。

在AI已经成为全球科技军备竞赛核心的今天,任何一家初创公司想要重走一遍CUDA之路,都会发现周围早已是巨头环伺。你没有十年的时间去慢慢培养开发者生态,因为字节和阿里们的自研芯片明天就会上线,直接用PyTorch/TensorFlow的底层适配绕过你的生态壁垒;你也没有从容试错的机会,因为资本市场和客户不再相信长周期的神话。

这条路意味着要在巨头的眼皮底下再造一个英伟达,但残酷的是,这注定是一场九死一生的突围。

第二条路,则是更现实的卖身互联网。

对于大多数无法成为英伟达的国产芯片厂商而言,这或许是最好的归宿。与其在巨头的夹缝中被“去中介化”慢慢绞杀,不如在自己技术尚有价值、团队尚有战力的时候,选择并入巨头的版图,融合成为字节或阿里内部的一个硬件部门。这并非失败,而是另一种形式的“上岸”。

对于寒武纪而言,2025年的盈利或许是短暂辉煌的起点,但也可能是大厂“去中介化”前最后的狂欢。

在这个赢家通吃的算力时代,单纯的“硬件中间商”正在失去存在的土壤。未来的牌桌上,只有两类玩家:要么强大到能像英伟达一样,制定规则,让巨头为你打工; 要么,聪明到能像Annapurna一样,融入巨头,成为规则的一部分。

除此之外,已无更多坦途了。

本文系作者 超聚焦 授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
本内容来源于钛媒体钛度号,文章内容仅供参考、交流、学习,不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容

扫描下载App