当前位置: 主页 > 快讯 >   正文

“MAMA”四巨头,“叛逃”黄仁勋

导读:“MAMA”四巨头,“叛逃”黄仁勋

  炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!

(来源:盒饭财经)

“英伟达是唯一供应商”的故事开始了修正。

作者 | 许有阳

来源 | 盒饭财经(ID:daxiongfan)

头图及封面来源 | 网络和即梦制作

当地时间2026年4月29日盘后,四家总市值超过10万亿美元的科技巨头,罕见地在同一时间窗口交出了季度答卷。

谷歌母公司Alphabet、微软、亚马逊和Meta,营收和利润全面超预期。

2026年第一季度,Alphabet营收1099亿美元,同比增长22%,净利润同比暴增81%至626亿美元;微软营收828.9亿美元,同比增长18%,净利润317.8亿美元,同比增长23%,AI业务年化收入同比飙升123%;亚马逊营收1815亿美元,同比增长17%,净利润303亿美元,同比大涨77%;Meta营收563.1亿美元,同比增长33%,净利润267.73亿美元,同比增长61%。

然而,同一份超预期的财报,迎来了四种截然不同的命运。Alphabet盘后一度涨超7%,而Meta盘后暴跌逾6%,微软一度跌超3%后微幅转涨,亚马逊则小幅上扬。

一张令人咋舌的“隐藏账单”成为关键。

资本支出方面,“MAMA(Alphabet、微软、亚马逊、Meta)正在以史无前例的规模向AI基础设施砸下重金:Alphabet 357亿美元,同比翻倍;亚马逊432亿美元,全年预算2000亿美元;微软319亿美元,全年预测1900亿美元;Meta上调全年指引至1250亿~1450亿美元。

而这笔天文数字的相当一部分,流向了同一个目的地:英伟达。

微软首席财务官Amy Hood在电话会上明确指出,全球AI需求导致的存储组件短缺,将使公司全年基础设施成本额外增加约250亿美元。Meta首席财务官苏珊·李更是表示:“我们一直在低估自身的算力需求,2027年的支出规划目前仍不明朗。”

试图摆脱对英伟达的依赖,本质是一场关于“算力主权”的博弈。

已有人赚到真金白银

英伟达的大客户们,正成为它的竞争对手。

4月30日,亚马逊CEO安迪·贾西首次系统性披露了自研芯片业务的规模:芯片业务季环比增长近40%,年化收入已突破200亿美元,同比增速达三位数。

随后,贾西话锋一转,透露了另一组数据:“如果我们的芯片业务作为独立公司存在,像其他领先芯片公司那样将今年生产的芯片同时销售给AWS和第三方客户,我们的年化收入将达到500亿美元”。

贾西宣布,亚马逊自研芯片业务“现在已是全球前三大数据中心芯片企业之一,我们达到这一规模的速度是非凡的”。据了解,亚马逊的定制芯片业务涵盖Graviton处理器、Trainium AI训练芯片和Nitro安全芯片,全线同比增速超过100%。

与亚马逊用Trainium打破CUDA枷锁的“广积粮”不同,谷歌更像是一次基于“深挖洞”的全栈自研胜利。

同一晚的电话会上,谷歌也正式投下了TPU外供这枚“重磅炸弹”。

谷歌CEO桑达尔·皮查伊宣布:“我们将开始在客户自己的数据中心内,以硬件配置的方式向一组客户交付TPU,以扩大我们的可寻址市场机会。”

谷歌首席财务官Anat Ashkenazi补充表示,TPU硬件协议已反映在4620亿美元的订单积压中,预计今年晚些时候确认一小部分收入,大部分收入将在2027年实现。目前在售订单中的TPU芯片直销部分大多在2027年确认收入,基本对应Anthropic和Meta在2027年陆续落成的自有数据中心。

这意味着,谷歌的“芯片外卖”实际上已经锁定了未来两年的核心客户。而这也是谷歌TPU自诞生以来,首次从“仅供内部使用”走向“公开售卖”。

多年来,谷歌自主研发的TPU处理器一直仅供内部使用,用于开发Gemini等AI模型。 这次从“自用壁垒”全面转向“开放生态”,是战略性的根本转向。

“有些情况是合理的。例如,像资本市场这样的客户,他们在运行这些高性能AI工作负载时,希望在自己的数据中心使用TPU……这帮助我们整个计算环境获得更大的规模经济。”皮查伊的解释揭示了背后的商业考量。

从2026年一季度开始,算力的定义权正在从一家公司扩散到它的最大客户手中。 亚马逊和谷歌已经用真金白银证明了:云厂商可以既是英伟达的客户,也是它的对手。

微软“带薪进场”,Meta“负重前行”

微软与Meta展现了两种截然不同的“被动”姿态。尽管两家公司在本季度合计向英伟达贡献了超过200亿美元的订单,但其底层的财务逻辑已发生分化。

先看微软。

2026年Q1,微软交出了一份看似光鲜的业绩单:总营收828.9亿美元,同比增长18%;AI业务年化收入同比飙升123%,首次突破370亿美元。这份光鲜背后隐藏着一个带着深深疑虑的数字:本季度资本支出达到319亿美元,上一财季这一数字为375亿美元,本次环比回落约15%,明显放缓。

电话会上,微软首席财务官Amy Hood披露了这笔钱的核心去向:“约一半的支出用于GPU和CPU,主要是支持Azure平台的AI推理需求。

这意味着,微软在本季度掏出约175亿美元大部分直接投向了英伟达。

全年来看,资本支出预计高达1900亿美元,同比增61%。Hood更是明确警告,因AI需求导致的GPU和存储组件短缺,将使全年基础设施成本额外增加约250亿美元。

微软也没有坐以待毙。

1月下旬,微软正式发布新一代AI推理芯片Maia 200。该公司称这款芯片是为 AI 推理规模化部署打造的高性能核心算力芯片。

据了解,这款芯片采用台积电3纳米制程工艺,每台服务器内集成四颗芯片,通过以太网电缆实现连接,而非 InfiniBand 高速互联标准。英伟达在2020年收购迈络思后,便开始推出InfiniBand交换机产品。

当时微软就透露,Maia系列芯片已投入实际应用,为该公司超智能团队的各类 AI 模型提供算力支持,同时也为旗下聊天机器人 Copilot 的日常运营提供技术支撑。

然而,自研芯片距离替代采购还有相当长的路。Azure云服务用户何时能正式使用基于Maia 200运行的服务器,微软尚未给出明确时间表。财报中,本季度319亿美元的资本支出中,GPU与CPU采购仍占主导。

再看Meta。

2026年Q1的Meta,更加被动。Meta当季营收563.1亿美元,同比增长33%,净利润267.73亿美元,同比增长61%。但财报发布后,股价盘后重挫逾6%,市值蒸发数千亿美元。

引爆点正是一组资本支出数字:Meta将2026年全年资本支出指引从1150亿~1350亿美元上调至1250亿~1450亿美元,区间上下限各提高100亿美元。若按最新上限计算,Meta今年资本支出可能达到1450亿美元,较2025年的722.2亿美元几乎翻倍。

Meta首席财务官苏珊·李在电话会上坦承,上调的原因之一是预期“更高的零部件价格”,以及额外数据中心成本。

更值得玩味的是Meta的芯片采购策略。

扎克伯格曾在电话会议上提到:“作为提高投资效率的一部分,我们正在推出超过1吉瓦(1GW)的、由我们与博通合作开发的定制芯片,同时还部署了大量的 AMD 芯片,以作为我们正在推出的新 NVIDIA系统的补充。”

它已与英伟达、AMD和博通达成了芯片等硬件采购协议。这是一张多元化的采购清单。但值得注意的是,每一家供应商都是外部公司,没有一家是Meta自己。这意味着,Meta的1250亿~1450亿美元资本开支中,很大一部分将直接流向这些芯片公司的营收表。

Meta也在行动。

4月14日,Meta与博通公司宣布达成一项重大协议,将双方之间关于设计Meta自研AI加速器(MTIA)的合作关系延长至2029年。

但这恰恰暴露了Meta与亚马逊、谷歌之间的根本差距。亚马逊的Trainium已经年化收入超200亿美元,客户订单排到几年后;谷歌的TPU已经开始向客户交付硬件。而Meta的MTIA尚处于“与博通联合研发、初始部署1GW”的阶段。

黄仁勋也有防线

黄仁勋当然也有防线。

第一重防线是财务。2026财年(截至2026年1月25日),英伟达全年营收达到2159亿美元,同比增长65%。其中数据中心业务全年营收1937亿美元,占总营收的90%以上。第四季度单季数据中心营收623亿美元,同比增长75%。全年GAAP毛利率71.1%,第四季度GAAP毛利率75.0%,Non-GAAP毛利率75.2%。

做个对比更直观:英伟达单季数据中心营收623亿美元,这个数字,比谷歌云全季营收200亿美元的三倍还多。全年净利润1200亿美元,超过亚马逊303亿美元、微软317亿美元和Meta 267亿美元三家Q1净利润的总和。

当挑战者需要用主业利润来补贴芯片研发时,英伟达的主业本身就是芯片。这就是财务壁垒的本质:挑战者用赚来的钱造武器,英伟达卖武器的钱本身就是利润。

第二重防线,便是软件,CUDA生态是芯片好造、生态难移。

芯片可以自研,但开发者不会轻易搬家。CUDA是英伟达最深的一条护城河。

CUDA生态已经构建了近20年,积累起结构性的准入壁垒。这套生态构建了三重锁定:性能依赖,优化不对称导致最终收敛于特定芯片;设计依赖,软件选择决定硬件路径;结构依赖,封闭驱动架构阻碍物理替换。

亚马逊和谷歌可以造出Trainium和TPU,但数以百万计的AI开发者已经深度嵌入CUDA生态,迁移成本和时间远超硬件采购。尽管Cerebras CEO公开声称“推理没有护城河”,CUDA在训练环节的锁定效应仍然极强。

高盛研报在对比GPU与ASIC的成本时发现:谷歌/博通TPU v7每百万Token成本与英伟达GB200 NVL72基本持平。当自研ASIC的性价比只是“打平”而非“碾压”时,CUDA生态的惯性将成为客户决策中最重的筹码。

打平不是碾压。考虑到迁移成本和风险,打平等于“暂时不搬”。

防线之外,黄仁勋正试图通过DGX Cloud和“主权AI”,绕过云厂商中间层,直接服务目标的最终客户。

ARK Invest在《Big Ideas 2026》报告中明确指出,受AI大模型和算力井喷式需求的推动,到2030年,全球数据中心系统的年度投资额将从目前(约5000亿美元)激增至 1.4万亿美元。

随着AI的工作负载从“通用模型训练”大规模转向“专用模型推理”,市场对极致能效比的追求将成为核心。ARK预测,由博通和亚马逊等企业设计的定制AI芯片(ASIC)将继续抢占相当一部分的市场份额。

该报告还做了预测:目前英伟达主导了绝大部分GPU市场,销售份额极高,曾占AI加速计算的90%以上,但由于ASIC的崛起以及AMD等其他公司的追赶,其在数据中心加速计算市场的绝对市占率未来会被压缩。

不是英伟达的故事结束了,而是“英伟达是唯一供应商”的故事开始了修正。

参考资料:

1.《美股科技四巨头一季报:AI“兑现”不均,谷歌独赢》,21世纪经济报道

2.《美股“四巨头”今年AI砸钱7250亿美元创纪录,但代价高昂:芯片涨价、产能受限》,华尔街见闻

3.《谁将掌控AI时代的“收税权”?》,中国基金报

4.《微软发布新一代高性能 AI 推理芯片》,环球市场播报

5.《微软发布新定制 AI 芯片 Maia 200:台积电 3nm 工艺,性能强三成还更省水》,IT之家

6.《Meta仍在AR/VR和AI上持续烧钱》,Techcrunch

6.《Big Ideas 2026》,https://www.ark-invest.com/big-ideas-2026

7.Alphabet Investor Relations,https://abc.xyz/investor/

8.Meta Investor Relations,https://investor.atmeta.com/home/default.aspx

9.Microsoft Investor Relations,https://www.microsoft.com/en-us/investor/default

10.Amazon Investo

欢迎在评论区留言~如需开白请加微信:YPYP01234567

内容