![]()
2026 年 2 月 10 日,边缘侧/端侧AI推理芯片公司爱芯元智正式在港交所挂牌上市,成为“中国边缘AI芯片第一股”。
耀途资本创始人杨光说了一句:“信念会得到回报。”这句克制的表达,浓缩了一场长达五年的坚守。
就在1个月前,耀途投资的另一家GPU巨头壁仞科技也成功敲钟。这一连串的“丰收”,不仅是资本的回报,更是中国 AI 芯片产业一次次关键探索,从云端算力到端侧算力的接力崛起。
时间回到 2020 年,因芯片产能黑天鹅事件,意外重塑了国内中高端 AI 视觉处理市场格局,带来短暂窗口期。那一时期,行业黑马竞相涌现。正是在这个关键节点,杨光在上海展想中心见到了爱芯元智的创始人仇肖莘,这位曾任紫光展锐 CTO、拥有深厚技术底蕴的女性掌舵人。
尽管耀途团队对仇肖莘及团队的技术实力深信不疑,但内部讨论时也曾探讨:“等爱芯的芯片跑通,视觉处理的短暂市场窗口期还在吗?”而出于对终端智能化长期趋势的看好,以及中国完善的工业制造和AI硬件产业链的信任,最终,耀途资本选择了连续两轮押注。
后来的事实证明,这笔押注没有错。爱芯元智不仅稳稳拿下了视觉终端计算市场份额,更敏锐地意识到,存量市场不是终点。
他们顺着 AI-ISP 、混合精度 NPU、Pulsar工具链 的技术长板,2021年迅速切入智能汽车赛道,拿下了多个车厂定点订单,四年累计装车量近百万颗。按2024年出货量计,爱芯已成为中国第二大国产智能驾驶SoC供应商。
这期间,爱芯还引入了韦豪创芯、美团、腾讯、宁波和重庆的政府投资平台作为战略投资人,获得了足够的资金投入高端智驾芯片研发。2026 年 Q2,爱芯元智将发布支持城市 NOA 的重磅芯片,标志着其将冲刺 L2+ 高阶智驾市场。
从 2019 年创立到 2026 年上市,爱芯元智做对了三件事:组建AI算法和芯片融合的团队、提前押注智能汽车市场、通过产业协同获得丰富资金。
在爱芯元智上市前夕,我们与杨光进行了这次对话,聊了边缘 AI 芯片的投资逻辑、AI 时代对芯片公司的新要求、中美芯片竞争的差异化路径,以及开源模型如何重塑产业格局。
核心观点:
- “云端先行,端侧随后”。云端美国领先,中国在追赶。边缘侧市场,中国拥有应用场景丰富、供应链完备和客户多元化三重优势,更有机会诞生世界级企业。
- 端侧芯片的护城河在生态,不在性能。云端芯片市场用户与供应商集中度高,端侧市场极度分散。芯片公司必须借助方案商切入碎片化场景,一旦“芯片+方案商+应用” 生态构建完成,后来者很难撼动。
- 软件能力是AI芯片公司的生死线。现在很多AI芯片公司都是一半以上员工是软件工程师。创始团队必须有人真懂AI算法,能紧跟技术前沿,最理想的是半导体+AI背景互补。
- 中国端侧AI芯片的胜算,离应用更近;不拼通用算力,要在垂直且具规模的场景扎根。应用高地在中国,自动驾驶、消费电子等场景的迭代速度远超海外,会不断催生新的芯片需求。
- 开源模型打开了国产AI芯片的生存空间。开源极大降低了适配门槛,让芯片公司能更快实现场景落地。从芯片到模型都由国内企业自主研发,形成“主权AI”闭环,国产芯片足够胜任推理场景需求。
- 2025年是GPU大年,未来是网络互联、通信芯片大年。网络数据传输、硅光和各类光电互联芯片公司会陆续登陆资本市场,将出现多家市值超100亿美元的公司。
以下为创投家与杨光的对话全文,略有删减:
为什么押注边缘侧?
创投家:耀途资本从 2017 年就开始投资边缘侧 AI 芯片,当时的投资逻辑是什么?
杨光:我们是最早投资边缘侧 AI 芯片的机构之一。2017 年那会儿还没有 ChatGPT,大家押注的是硬件智能化。
当时的判断是消费电子、汽车这些领域的硬件都在智能化,中国又有很强的硬件制造基础。如果中国公司做端侧 AI 芯片,供应给国内硬件厂商,这些厂商未来成为全球化公司,芯片也就跟着出海了,这个逻辑的想象空间很大。
一边是端侧设备全面智能化,一边是中国硬件厂商在全球市场份额持续提升。这种技术壁垒高、增速快、有技术创新的赛道,正是我们这类 VC 最看重的。
创投家:能否分享一下爱芯最初的决策过程,以及公司后来的哪些关键发展,印证了您最初的判断?
杨光:2020 年,因芯片产能黑天鹅事件,意外改写了国内中高端 AI 视觉处理市场格局。经产业方朋友介绍,我们认识了爱芯的仇老师。
我们和仇老师是一见如故。她曾任博通VP、紫光展锐CTO,而我们此前海内外也布局了很多芯片项目,当时聊了很多技术层面,也聊到很多共友,她展现出很强的技术认知、战略眼光和前瞻性。
在随后的团队尽调中,她的团队管理能力也不容置疑,整合了一批大牛。我们见了算法、芯片设计团队核心成员,团队氛围很踏实,不仅技术很扎实,而且内部凝聚力很强,信息透明度很高,创业方向、技术路径等都对齐得很好。
这种高度人事匹配的团队,让我们很快做出了投资决定,2020年参与爱芯A轮,并在2021年追投了A++轮。投资后,爱芯的发展印证了我们的判断。仇老师展现了强大的领导力、执行力和资源整合能力。
爱芯在2021年切入了辅助驾驶芯片赛道,进展迅猛。首款车载芯片于2023年6月已经量产上车,2025年底累计装车量近百万颗。
智能汽车市场主要看两块:一块是法规驱动的AEB市场,M55H芯片在2024年出货量已经是国内第二,新一代M57也已经面向全球发布,目标就是冲进第一梯队;另一块是高阶智驾,如城市NOA,爱芯也计划2026年Q2发布高算力高阶智驾芯片。
另一方面,公司也紧密和产业方如韦豪创芯、美团、腾讯、,以及宁波、重庆的政府投资平台深入合作,获得了可观的资金注入,让公司有足够资源投入高端智驾芯片的研发。
创投家:ChatGPT 和生成式 AI 出现后,市场产生了哪些变化?
杨光:ChatGPT 的诞生让行业意识到,所有硬件产品都值得用 AI 重新构建。
当前,汽车、机器人、无人机及 3D 打印机等设备的硬件逻辑都在被 AI 重新定义,这必将催生出大量的半导体机会。
如果没有AI,半导体过去的创新更多集中在提升某些具体功能,比如影像、无线充电等。这些都是在优化现有设备的特点,但AI完全不同,它彻底改变了手机、PC乃至各类AI硬件的用户体验,创造了许多全新功能。
如今,能够提升生产力的AI算法及其承载芯片,赋予半导体更大的价值,从单纯实现功能,到提升人类效率甚至替代部分人类工作,这完全打开了市场的天花板。
边缘AI的核心价值在于满足低延迟、强隐私与高能效的真实场景需求。特别是自动驾驶和机器人等对延迟极度敏感的领域,由于无法完全依赖云端,本地化运行已成为必然。同时,随着用户隐私意识的提升,手机和 PC 的本地化处理也将成为常态,这进一步倒逼边缘侧芯片提升传输速度、算力和带宽等性能指标。
这些趋势共同指向一个明确的诉求:端侧设备需要性能更强劲的 AI 芯片。
我们在端侧算力芯片投了多家企业,面向不同的应用场景。比如爱芯元智,从视觉处理,延伸至如今智能汽车、端侧AI推理高端芯片市场;进迭时空,RISC-V CPU AI芯片,也可以应用于机器人、智能终端。
我们天使轮投资的光羽芯辰,其解决方案是将DRAM内存以3D堆叠方式集成在AI 芯片之上,从而大幅缩短数据传输距离,显著提升内存带宽。这种新技术非常契合手机、PC、机器人等对大算力、大带宽有高度依赖的边缘计算场景。
以前,市场的目光大多集中在数据中心 GPU 的增长上。现在的数据中心多为大规模集群,动辄达到 10 万卡甚至 20 万卡的规模,其中涉及大量的互联需求。这也解释了光模块近期表现优异的原因,因为其核心价值就在于解决大规模数据传输问题。
我认为2025年是 GPU 的“大年”,但未来几年,网络数据传输、硅光和各类光电互联芯片企业将陆续登陆资本市场,且很有可能多家公司市值超过 100 亿美元。作为 AI 底层的基础设施层,我们会持续在该领域进行深耕与布局。
创投家:也就是说,芯片的功能是在随着需求的变化而不断演进的?
杨光:没错,需求一直处于动态演变的过程中。
以英伟达在汽车领域的芯片历程为例:早期的算法主要基于规则(Rule-based),模型规模小,对算力的要求相对较低。后来发展到端到端算法(End-to-End),系统开始模拟人类驾驶员的行为,算力需求随之大幅提升。
而现在,我们进入了VLA(视觉语言动作模型)阶段。在自动驾驶过程中,系统需要具备思维链(Chain of Thought)能力,能够像人一样对交通标识、行人意图,甚至是“鬼探头”等复杂突发场景进行逻辑判断和预判。引入思维链意味着需要更大规模的模型来承载,对芯片算力的要求自然水涨船高,目前自动驾驶高端芯片算力已跨越 1000T 门槛。
可以说,AI 模型的持续演进不断定义着 AI 芯片的新需求,其中时刻孕育着技术创新的机会。
机器人领域同样如此。目前机器人的应用场景比自动驾驶更处于早期阶段,对于具体需要多大算力、允许多少延时等,行业内还没有明确的界定和统一标准。
因此,从芯片设计的角度来看,未来充满了变数与挑战,非常值得期待。
创投家:你们如何看待云端和端侧AI 芯片的发展节奏?
杨光:我们认为整体节奏是“云端先行,端侧随后”。
在云端领域,目前美国确实处于领先地位,中国则处于全力追赶的状态。但在端侧 AI 领域,情况大不相同。由于全球绝大部分的应用场景、完善的供应链以及核心下游客户都集中在中国,可以说中国企业是覆盖全球的。
基于这种生态优势,端侧市场留给中国公司的机会肯定更多。在这一赛道上,完全有潜力诞生出世界级的领军企业。
AI时代的芯片公司
创投家:在AI 变革之下,芯片公司面临哪些新的挑战?
杨光:当下芯片公司面临的最大挑战,在于是否具备强大的软件实力。
现在的 AI 芯片公司,软件开发人员往往占了一大半,真正负责芯片设计的反而不到一半。逻辑很简单,如果软件算法支持不到位,芯片在客户那里就根本用不起来。没有顶尖的软件算法团队,你甚至无法洞察客户的真实需求。
同时,创始团队必须时刻紧跟算法前沿。从硬件架构的角度,要思考如何更高效地支持云端大模型,或者边缘侧的蒸馏模型。比如爱芯元智自研的混合精度 NPU,就是从算法需求出发,倒推芯片应具备的功能特性;再比如 DeepSeek 普及了INT8 之后,所有做 GPU 或 DSA 架构的厂商都要考虑如何实现原生支持。
这些竞争,本质上都是算法和软件层面的博弈。
创投家:除了软件能力,AI 芯片公司还需要具备什么核心竞争力?
杨光:至关重要的一点,是生态系统的构建能力。
传统的功能性半导体芯片往往是“性能为王”,只要指标好就不愁卖。但 AI 芯片不同,它需要极其庞大的生态支撑。以端侧 AI 芯片为例,像瑞芯微这样的企业,其核心优势在于拥有海量的生态合作伙伴,也就是方案商(ISV)。这些方案商利用芯片开发出五花八门的成熟方案推向客户,有的专注扫地机器人,有的做智能音箱,有的做仓储物流机器人或无人物流车。
回顾历史,英特尔通过 x86 联盟、英伟达通过 CUDA 都是在走这条路。一旦这种“芯片+方案商+应用”的生态构建完成,就会形成极高的护城河。
在云端,你可能只需要服务好几家大客户;但端侧市场极其碎片化,应用场景千差万别。对于一家芯片原厂来说,逐一攻克这些场景效率极低,必须借助成百上千的方案商。
举个例子,一家创业公司想做一个“陪伴机器人”,在规划项目时,它首先想的是哪里有成熟方案。如果它发现华强北的方案商已经把某款芯片配好了现成的算法和参考设计,它就能迅速出货。当这种便利性成为行业共识时,后来的竞争对手就很难撼动你的地位了。
创投家:投资AI芯片公司迭代了哪些新的标准?
杨光:现在的核心标准是:创始人或创始团队必须有人真懂 AI、真懂算法。
在传统的芯片设计时代,只要瞄准特定的制程工艺,维护好供应链,定义好功耗等核心性能指标,按部就班地推进即可。那时候,市场可能两三年才发生一次大的更迭。
但现在的 AI 市场,可能每三个月就会发生一次剧变。如果还停留在以前的旧思维,只是一味地追求算力加速,那可能会发现现在的视频算法、大模型算法早已不是当初定义的模样。
所以,创始团队必须具备敏锐的技术前瞻性。在 AI 这条赛道上,如果仅仅按眼前的需求去定义产品,等芯片两三年后研发出来,市场可能已经不需要了。
因此,我们特别看重创始人对 AI 的深度认知以及对市场变化的敏锐度。当然,我们并不要求创始人是“全才”,既精通半导体又精通 AI。
最理想的架构是创始团队的背景互补:有人深耕半导体,有人精通 AI 算法,甚至还有系统级的人才,这样的“黄金组合”才是我们最看重的。
中国AI芯片的胜算
创投家:目前美国的芯片仍处于领先地位。如果中国芯片要参与全球化竞争,您认为我们该如何探寻差异化的发展路径?
杨光:在云端领域,美国确实处于领先地位,但这种领先并非全方位的。
客观来看,英伟达等巨头是站在全球协作的肩膀上,利用台积电最先进的 3nm 工艺生产芯片。而中国芯片的设计能力其实并不落后太多,我们有能力设计出 7nm 甚至更先进制程的芯片,真正的瓶颈在于底层的生产制造环节。
因此,从长远来看,建立一套自主可控、不依赖外部的国产供应链是我们的必修课。
但在端侧 AI 领域,中美的差距并不明显。长期来看,我们更看好中国市场。原因在于,下游的应用高地在中国。以汽车为例,中国自动驾驶对新技术、产品的采纳率和迭代速度远超海外,这种激烈的实战环境会不断倒逼出更多超前的芯片需求。
创投家:为什么您认为端侧AI 芯片是“应用定义”的芯片?
杨光:因为未来的端侧 AI 芯片,其生命力直接取决于对场景的理解。
应用的快速迭代会催生出非常具体的芯片需求。一旦中国公司深耕这些垂直领域,在应用层建立起领先优势,海外对手就很难追赶。目前在自动驾驶、机器人及各类 AI 硬件方向,海外除了特斯拉,强大的全球性玩家数量和行业内卷比不上中国。再多迭代几代产品后,中国企业竞争力会更强。
我们的投资判断非常明确:端侧AI芯片必须离应用更近。
以大疆为例,这是一家我们非常尊敬的公司,它最强大的核心技术之一就是自研的图传芯片。大疆的无人机即便飞出数公里,图像依然能以极低延迟传输,这种极致体验在全球范围内几乎没有对手。
即便海外半导体公司愿意投入三四年时间研发,他们也找不到像大疆这样体量的厂商去深度磨合、定制私有协议。这种需求在海外几乎是真空的,因为相关的无人机厂商早已被大疆拉开了代差。
大疆最初也尝试过第三方方案,效果也不错,但在追求极致性能的过程中,最终选择了自研。如今,他们拥有了世界一流的远距离图传芯片。
未来,中国会涌现出更多类似的公司,在某个细分功能或 AI 特定领域做到极致。
创投家:所以中国AI 芯片的胜算在于垂直领域?
杨光:没错,垂直且具规模的场景。
如果一个场景的芯片需求量只有一万颗,那投入产出比肯定不划算。但只要这个垂直赛道的规模足够庞大,我相信中国独特的应用生态一定会催生出一批非常有意思的芯片公司。
开源“救”了中国AI及芯片?
创投家:中国和美国AI产业会怎么发展,开源会成为中国AI实现“弯道超车”的关键支点吗?
杨光:全球AI 产业未来竞争焦点,就在于中美两国之间。而中国正走出一条以“开源普惠” 为核心的差异化发展道路。
与美国全力追求SOTA(目前最高水平的)的闭源路径不同,中国的策略更务实:通过DeepSeek、通义千问、Kimi等开源模型,以更低成本提供高性能AI能力。它系统性激活了中国自主的AI产业闭环——从底层国产算力、中层模型到上层应用。
开源模式带来了深远的商业变革,核心在于重构了利润分配,将利润从封闭的模型层释放给了广大的应用开发者和终端用户,真正推动了“普惠AI”。
可以说,美国在向塔尖攀登,而中国在推动技术普及。从长远看,两条路径或许最终都能通向AGI,中国选择了一条更巧妙、更注重可行性的道路。我相信只要持续投入,我们同样能够到达目标。
创投家:开源与闭源的模式差异,对国产芯片产业会产生怎样的影响?
杨光:我个人认为,模型开源对国产芯片而言是极大的助力。
DeepSeek、通义千问等优秀模型的开源,极大地开拓了应用场景,使大模型能迅速且低成本的在云端,包括私有云和本地部署等场景中落地。在此之前,大模型基本部署在云端,许多国央企或对数据安全敏感的机构,很难真正运用生成式 AI 来提升效率。
现在情况变了。比如 DeepSeek 走红后,国内迅速出现了“DeepSeek 一体机”,本质上它就是一台预装了开源模型的 AI 芯片服务器。客户购买配置了壁仞科技、瀚博半导体、昆仑芯等AI芯片的服务器后,可以直接本地部署大模型。
这种模式从底层催生了大量的私有化部署需求,也是一个非常重要的市场变量。
创投家:开源模型对AI 芯片公司的技术支持有什么影响?
杨光:从兼容和支持的角度来看,开源让事情变得简单了。
以往的闭源模型大多基于英伟达生态开发,公开信息有限,国产芯片想要适配并提供良好支持,软件工作量极大。但开源模型不同,其结构透明,芯片公司能迅速实现硬件级的优化与兼容。
目前国内表现出色的开源模型相对集中,主要是 DeepSeek、通义千问、Kimi 等这几家。放眼全球,Meta 开源模型 Llama 早已被中国开源模型超越。对于中国的 AI 芯片公司来说,只要集中精力适配好这几个主流模型,就能覆盖绝大多数客户场景。
中国客户天然更倾向于开源生态,这大幅提升了国产芯片被市场采用的概率。
创投家:所以开源模型实际上打通了从芯片到应用的整个链条?
杨光:没错。这背后逻辑非常清晰:开源驱动了模型的本地化部署,而本地化对数据传输和本地处理能力提出了新要求。
这种趋势促使软硬件结合更加紧密,特别是在特定行业场景中,国产芯片完全可以胜任并发挥出本土优势。这就是我们所说的“主权 AI”,从底层芯片到中间层模型,再到上层应用,全部由国内企业自主定义和研发。
开源模型的突破,极大地降低了 AI 芯片在算法和软件兼容方面的壁垒,形成了一个完整的生态闭环。(作者|郭虹妘,编辑|陶天宇)







快报
根据《网络安全法》实名制要求,请绑定手机号后发表评论