融资20亿,科创板“非GPU”算力第一股来了!
21IC电子网
可重构AI芯片领军企业——清微智能宣布完成超20亿元人民币C轮融资,由北京市属国企京能集团领投,北创投、成都科创投、武岳峰科创等近二十家机构跟投,老股东中关村科学城公司、商汤国香资本等持续加码。公司同步启动上市筹备,目标直指科创板,立志成为国内“非GPU”新型架构芯片第一股。
一、融资三大投向:研发、落地、人才
本轮募资将聚焦:
下一代可重构芯片核心技术迭代;
智算中心场景规模化落地,已建十余座千卡级集群;
高端研发人才引进,夯实“云-边-端”全栈团队。
二、技术护城河:CGRA架构的“通用型TPU”
清微智能源自清华大学微电子所,其动态可重构计算架构(CGRA)被ITRS誉为“最具前景的第四类通用芯片”。最新量产芯片TX81通过“C2C算力网格”技术,在4 PFLOPS单机算力下,成本较GPU方案降低50%,能效提升3倍,已全面适配DeepSeek、Qwen等主流大模型。
在GPU垄断AI算力的当下,清微智能以可重构架构开辟“非GPU”新赛道。20亿元融资是国产新型算力能否“换道超车”的试金石。
清微智能的CGRA(Coarse-Grained Reconfigurable Array,粗粒度可重构阵列)架构,是一种介于ASIC与FPGA之间的“软件定义硬件”空域计算架构。与传统CPU/GPU/NPU相比,它在能效、通用性、实时性、成本四个维度形成差异化优势,已在商用产品中兑现。具体可归纳为六点:
1. 能效比逼近ASIC,峰值功耗<1 mW/核
采用“单次操作静态配置+无缓存多跳路由”,剔除指令取指、译码、共享缓存等冗余环节,运行功耗可低至0.7 mW/核,在传感器AI任务上较先进超低功耗CPU能效提升41倍,速度提高4.4倍,与同级ASIC仅差2.6×能耗。
已量产的TX210可穿戴芯片,用40小时语音待机验证了这一指标。
2. 纳秒级动态重构,一颗芯片≈“多颗专用芯片”
可在10–100 ns内重新配置阵列互联与算子,实现“算法换电门”:同一硅片先后变身ISP、NLP、Transformer加速器,硬件利用率>90%。
对算法演进友好,无需流片即可支持新模型,解决ASIC“一芯片一算法”僵化痛点。
3. 原生数据流驱动,访存次数降1–2个数量级
通过“分布式寄存器+点对点数据流”代替传统共享缓存,95%数据在阵列内部循环,内存带宽需求仅为GPU的1/10–1/30,在边缘端直接节省DDR颗粒与功耗。
4. 算力弹性横向扩展,无交换机千卡集群
TX8系列引入TSM-Link直连接口,单机4 PFLOPS;多卡互联无需交换芯片,即可组成千卡级智算中心,TCO(总拥有成本)较GPU方案下降50%。
已在北京、成都等地十余座千卡集群上线运行DeepSeek、Qwen等千亿级大模型。
5. 兼容主流GPU生态,软件栈零成本迁移
提供CUDA-like API与PyTorch/TensorFlow插件,存量模型一键编译即可跑在CGRA上;90%开源模型无需手工调优。
对开发者而言,“写GPU代码→直接跑在清微卡”,迁移门槛接近零。
6. 商业化验证充分,百万级芯片落地
从2019年首款TX210到2025年,累计出货>500万颗,覆盖可穿戴、安防、5G基站、智算中心四大场景,是全球CGRA出货量最大的企业。
2025年上半年AI加速卡出货量位列国产第六,IDC已单独列出“CGRA”新品类。清微CGRA把“ASIC级能效、FPGA级灵活、GPU级生态”做成了一颗芯片,为AIoT、智算中心提供了高算力、低功耗、可进化的第三极选择。
三、市场卡位:出货量国产第六,国资加持
据IDC统计,2025年上半年清微智能AI加速卡出货量位列国产第六,稳居第一梯队。本轮融资获“市级+区级”国资矩阵护航:京能集团、京国瑞、中关村科学城等联合站台,既有算力资源协同,又有首都数字经济政策加持。
四、IPO展望:资本与技术的双重验证
从2018年成立到2025年冲刺科创板,清微智能七年完成7轮融资,累计引入百度、蚂蚁、SK海力士、商汤等战略股东。此次20亿元C轮为其上市前最后一击,估值与盈利模型将接受二级市场全面检验。