AMT|智造云|世界先进制造技术论坛,领先的高科技先进制造产业服务平台

发表于 5 小时前 | 显示全部楼层 |阅读模式

芯片做成了iPad那么大,估值半年涨了330%,英伟达的麻烦来了?

如果你是一位芯片圈的资深玩家,那你最近一定被Cerebras刷屏了。这块宛如“餐盘大小”的全球最大AI芯片,正在向纳斯达克发起最后冲刺,打算踩着英伟达的股价去书写属于自己的新传奇。

当然,现实远比理想的剧本更曲折。这颗挂着“英伟达挑战者”标签的AI芯片明星企业,在历经IPO多次折戟、安全审查和客户高度集中的重重波折后,再次满血复活,豪赌35亿美金。

在这个半导体行业竞争惨烈、AI风口不断更新迭代的节点,Cerebras到底是一块能直接让股价暴涨的万能钥匙,还是一个估值被严重透支的危险泡沫?


比桌面还大,这才是真正的大芯片

很多老玩家都知道,过去几十年做芯片有个铁律——晶圆得切成小块,才能保证良品率。

但Cerebras偏偏要打破这条定律。

它的核心武器叫做“晶圆级引擎WSE-3”,简单说就是不切割了,直接拿一整张12英寸的晶圆来当一块芯片用。这块芯片的面积高达46225平方毫米,足足是英伟达B200的56倍。WSE-3集成了4万亿个晶体管和90万个AI核心,内存带宽更是达到了B200的2625倍,堪称猛兽级别。

image.png

这么搞的好处很明显,本质上是“用面积换性能” 。传统GPU为什么在跑AI大模型的时候卡顿?因为大模型参数太大,GPU内部那点片上内存根本装不下,只能反复去片外的HBM高带宽内存里搬运数据,这就造成了巨大的“内存墙”延迟。

而Cerebras呢?它直接把44GB的高速SRAM内存和90万个计算核心焊死在了同一块硅片上,彻底砍掉了数据来回搬运的麻烦。

第三方测试数据也相当恐怖。在运行Llama 4 Maverick这样4000亿参数的超大模型时,Cerebras CS-3系统达到了2522个token/秒的单用户响应速度,直接是英伟达B200的2.4倍。如果是小模型,跑得更是H100的20倍,单位token成本最低能降低80%。

也正是靠着这个绝招,Cerebras在低延迟推理市场上站稳了脚跟。2025年它的推理云服务收入占比达到30%,而且在Hugging Face这个全球开发者平台上,它的推理调用量直接排到了第一名。

200亿美金的超级订单

真正让华尔街和硅谷集体破防的,是Cerebras的吸金能力。

就在4月17日提交IPO申请的当天,OpenAI一纸合同砸了过来——未来三年支付超过200亿美元,采购Cerebras的芯片来驱动服务器,甚至还要顺便拿点股权。OpenAI的意思也很清楚:英伟达芯片太贵了,多找个能打的供应商,顺便压压价。

就在这之前,Cerebras刚和AWS搭上了线。亚马逊AWS宣布将在自家数据中心里部署CS-3系统,通过Amazon Bedrock向客户开放,让Trainium负责预填充,Cerebras负责解码,双剑合璧。这可是主流云厂商第一次在自有数据中心里大规模部署非GPU的AI加速器。

不仅有大厂撑腰,大佬们还用真金白银投票了。Cerebras今年2月才刚完成10亿美元H轮融资,估值直接飙到230亿美元。这次IPO估值更是瞄准350亿美元,计划5月中旬落地,目标融资30亿美元。背后的金主爸爸们一个个来头不小,不仅有Benchmark Capital、Foundation Capital这些顶级风投,连高通、AMD和台积电都赫然在列,OpenAI行权后也直接跻身前三大股东。

image.png

翻翻招股书数据就知道什么叫爆发式增长。2022年营收才2460万美元,到2025年直接干到5.1亿美元,四年涨了超过19倍。净利润从2024年的亏损4.82亿美元直接翻盘,2025年盈利2.38亿美元,毛利率维持在39%。虽然硬件收入还占大头(约70%),但云服务和其他收入已经接近30%了。

冰面下的三重暗流

不过,表面的光鲜亮丽之下,Cerebras这个“英伟达挑战者”的故事,藏着几个不太让人放心的地方。

第一个雷:客户高度集中

这个毛病以前就没治好过。2024年,光一个中东客户G42就贡献了Cerebras 87%的营收。G42不光是大客户,还是投资者,两家牵扯太深甚至引来美国CFIUS国家安全审查,直接导致Cerebras上一次IPO计划在2025年10月流产。

现在问题解决了吗?G42的占比是降了(2025年降到24%),但阿布扎比的MBZUAI又顶上来了,直接贡献了62%的总营收。前两大客户加起来仍然贡献了86%的收入。一个靠一两个大客户撑起来的公司,抗风险能力可想而知。现在OpenAI的200亿美元订单成了新支柱,但把宝全押在一家AI公司身上,万一OpenAI哪天砍预算或者转投别家,Cerebras的业绩就会面临断崖式风险。

第二个雷:技术有短板,生态太弱

Cerebras的WSE-3确实在低延迟推理场景上表现炸裂,但在通用计算和模型训练上,跟英伟达压根不在一个量级。更关键的是,英伟达的CUDA生态可是沉淀了数百万开发者的完整体系,现有大模型几乎全是在GPU架构上优化出来的。客户想把现成模型搬上Cerebras平台,就得重新适配它的专有编译器,这迁移成本高得吓人。

虽然Cerebras已经能跑Llama、GLM、通义千问这些开源模型了,但在动态控制流和复杂算子支持上,它的软件栈成熟度跟英伟达比还是差得远。这个生态差距,没有三五年根本追不上。

第三个雷:估值太贵,泡沫太大

这次IPO估值350亿美元,是2025年营收的68.6倍。就算把OpenAI那200亿美元大单按三年分摊,加上其他客户收入,2026年预期营收大概也就80到100亿美元,估值仍高达3.5到4.4倍PS。半导体行业平均的PS估值水平也就2到3倍,这溢价高得有点离谱。

要撑起350亿美元的估值,Cerebras必须在2027年前实现至少150亿美元的年营收。这意味着,除了OpenAI这个大金主,还得再拿下五到八个同等量级的头部客户。在英伟达、谷歌TPU、AMD这些强敌环伺的环境下,这目标不是一般的难。

写在最后

AI算力市场的重心正在从训练转向推理。2025年全球AI推理市场规模已经达到1062亿美元,预计2030年将增长到2550亿美元。Cerebras确实踩中了行业风口,技术上也有实打实的差异化优势,OpenAI和AWS的背书更是含金量十足。

但问题来了:一个客户高度集中、技术有短板、生态基础薄弱、估值又贵得离谱的“挑战者”,资本市场真的愿意买单吗?

350亿美元的天价估值,赌的是Cerebras能在大厂夹缝中杀出一条血路。但即便成功上市,在AI芯片技术迭代不到18个月的残酷节奏下,Cerebras能不能持续保持技术优势、快速扩大客户群,恐怕还得打个大大的问号。


回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies

本版积分规则

主题 15 | 回复: 15

QQ|联系我们|法律声明|用户协议|AMT咨询|商务合作|会员入驻|积分充值|积分商城|积分奖励规则|TradEx全球购|加入QQ技术群|添加企业微信|加入微信技术群|智造号|手机版| 世界先进制造技术论坛™(简称AMT™, 智造云™) ( 沪ICP备12020441号-3 )

GMT+8, 2026-4-22 20:03 , Processed in 0.339645 second(s), 54 queries .

论坛声明:AMT-智造云(世界先进制造技术论坛) 属纯技术性论坛,我们严格遵守《中华人民共和国网络安全法》、《个人信息保护法》等国家相关法律法规,请勿发布非法言论、非法广告等信息,多谢合作。
本论坛言论纯属发表者个人意见且会员单独承担发表内容的法律责任,与本论坛立场无关;会员参与本论坛讨论必须遵守中华人民共和国法律法规,凡涉及政治言论、色情、毒品、违法枪支销售等信息一律删除,并将积极配合和协助有关执法机关的调查,请所有会员注意!
本论坛资源由会员在本论坛发布,版权属于原作者;论坛所有资源为会员个人学习使用,请勿涉及商业用途并请在下载后24小时删除;如有侵犯原作者的版权和知识产权,请来信告知,我们将立即做出处理和回复,谢谢合作!

合作联系: 双日QQ客服:3419347041    单日QQ客服:3500763653    电话021-37709287    合作问题投诉:QQ:2969954637    邮箱:info@amtbbs.org    微信公众号:AMTBBS

 

快速回复 返回顶部 返回列表