NVIDIA Corporation 是全球领先的数据中心级 AI 基础设施公司,总部位于加利福尼亚州圣克拉拉,1993 年创立于加州,1998 年重新注册于特拉华州。公司拥有约 42,000 名员工,分布于 38 个国家,其中超过 80% 为技术人员,超过半数持有高级学位,FY2026 离职率仅 3.7%。NVIDIA 于 1999 年发明 GPU,2006 年推出 CUDA 并行计算平台,2012 年 AlexNet 在 NVIDIA GPU 上训练并赢得 ImageNet 竞赛标志着现代 AI 的'大爆炸'时刻,自创立以来累计研发投入超 $76.7B。公司采用 Fabless 模式,供应链目前主要集中于亚太地区,正向美国和拉丁美洲扩展以增强韧性。两大业务部门为 Compute & Networking(涵盖数据中心加速计算和网络平台、AI 解决方案和软件、自动驾驶平台)和 Graphics(GeForce 游戏 GPU、RTX PRO 专业图形 GPU)。终端市场覆盖 Data Center(核心市场)、Gaming、Professional Visualization 和 Automotive 四大领域。Blackwell 架构引入数据中心级极致协同设计,可互联数十万台 GPU 构成单一巨型计算机。FY2026 推出并量产 Blackwell Ultra(GB300),针对 agentic AI、推理和物理 AI 优化;已公布 Rubin 平台,预计 FY2027H2 量产。
NVIDIA 在 GPU 加速计算和 AI 训练/推理芯片市场居于绝对领导地位。包含 GPU 和网络产品在内,NVIDIA 驱动全球 TOP500 超级计算机中超过 78% 的系统,包括 Green500 前 10 中的 9 个系统。凭借 CUDA 生态系统(超过 750 万开发者、6,000+ 应用加速库和 SDK)和全栈平台(GPU + CPU + DPU + NVLink 互联 + 网络 + 完整软件栈)形成了极深的竞争护城河。公司是加速计算和 AI 芯片市场的绝对主导者,竞争格局正在加剧但代际领先优势显著:已建立每年一代的数据中心架构更新节奏(Hopper → Blackwell → Blackwell Ultra → Rubin),持续拉开与竞争对手的性能差距。在游戏 GPU 市场,GeForce RTX 系列保持领先地位。在自动驾驶领域,DRIVE Hyperion 平台与数百家汽车生态系统合作伙伴合作。在数据中心网络互联领域,NVLink 和 InfiniBand/Ethernet 平台快速崛起。
NVIDIA 采用 Fabless(无晶圆厂)商业模式,不拥有晶圆厂,与 TSMC、Samsung 等代工厂合作生产半导体晶圆,由 SK Hynix、Micron、Samsung 供应 HBM 和其他存储器,由 Hon Hai(鸿海)、Wistron(纬创)、Fabrinet 等负责组装、测试和封装。销售渠道包括 OEM、ODM、系统集成商和分销商等直接客户,以及通过这些渠道触达的 CSP、Neocloud builder、AI 模型厂商和企业间接客户。业务分为两大部门:Compute & Networking(数据中心加速计算平台、AI 解决方案、网络、自动驾驶、嵌入式平台、DGX Cloud 服务)和 Graphics(GeForce 游戏 GPU、GeForce NOW 云游戏、RTX PRO 专业图形、vGPU 软件、Omniverse 企业软件)。公司通过 NVIDIA AI Enterprise 软件许可和 DGX Cloud AI 即服务拓展经常性软件和服务收入。FY2026 推出 NVLink Fusion 使超大规模客户和定制 ASIC 设计者能够将自定义 CPU 和 XPU 与 NVIDIA 平台集成,体现从封闭平台向更开放生态的战略演进。
| 供应商/合作方 | 关系 | 详情 |
|---|---|---|
| TSMC / Samsung | 晶圆代工 | NVIDIA 采用 Fabless 模式,TSMC 和 Samsung 为其主要晶圆代工厂。TSMC 的 CoWoS 先进封装技术对 NVIDIA 高端 GPU 和数据中心级系统生产至关重要。供应链目前主要集中在亚太地区,但正在向美国和拉丁美洲扩展以增强韧性和冗余。 敞口: FY2026 制造、供应和产能承诺总计 $95.2B(较 FY2025 的 $30.8B 大幅增长 3 倍),反映数据中心级生产规模和更长期的未来订单视野,实质上全部将在 FY2027 之前支付。预付供应/产能协议和长交期不可取消订单锁定了大量产能。 |
| SK Hynix / Micron / Samsung | 存储器供应(HBM 及其他) | NVIDIA 从 SK Hynix、Micron 和 Samsung 采购 HBM(高带宽内存)及其他存储器产品。HBM 是数据中心 GPU(Blackwell、Blackwell Ultra)的关键组件,存储器成本是 GPU 成本的主要组成部分。公司可能直接采购部分原材料如内存、基板和各种元器件。 敞口: FY2026 库存余额 $21.4B(同比增长 112%),其中原材料 $3.8B、在制品 $8.8B、成品 $8.8B。FY2026 记录库存拨备 $4.0B(不含 H20 相关的 $4.5B 一次性拨备),超额库存采购义务准备金 $2.7B。 |
| Hon Hai (鸿海) / Wistron (纬创) / Fabrinet | 组装测试封装 | 独立分包商和合同制造商负责最终产品的组装、测试和封装。公司已扩展供应商关系以构建运营冗余和韧性,提供与客户需求增长一致的长期制造产能。新供应商和合同制造商的整合增加了多供应商管理的复杂性。 敞口: 制造、供应和产能承诺 $95.2B + 多年云服务协议承诺 $27B + 投资承诺 $11.4B + 其他承诺 $3.4B。此外 FY2027-FY2041 年间有大量数据中心和办公相关运营租赁义务。 |
| Groq, Inc. | 技术许可(LPU) | 2025 年 12 月签署非独占许可协议获取 Groq 语言处理单元(LPU)技术,并聘用部分 Groq 员工。未购买客户合同、现有产品或股权。记录 $14.4B 商誉和 $2.5B 已开发技术无形资产(采用成本重建法估值,5 年摊销期)。商誉主要归因于人才和许可技术的未来开发潜力,分配至 Compute & Networking 部门,可税前扣除。 敞口: 总对价包括签约时支付的 $13.0B 和一年内应付的 $4.0B(含隐含利息),后者计入应计及其他流动负债。 |
FY2026 一家直接客户占总收入 22%,另一家占 14%(均主要归属 Compute & Networking 部门)。FY2025 三家直接客户分别占总收入 12%、11% 和 11%。FY2024 仅一家直接客户占 13%。FY2023 无单一客户超过 10%。客户集中度从 FY2023 到 FY2026 持续且显著上升,头部集中度急剧加深。应收账款集中度方面,FY2026 末三家直接客户分别占 AR 的 25%、18% 和 13%(FY2025 为 17% 和 16%)。间接客户方面,通过系统集成商和分销商产生大量收入,部分间接客户个别占比超过 10%,且估计一家 AI 研究和部署公司在 FY2026 通过向 NVIDIA 客户购买云服务贡献了相当的收入。地理收入分布(按客户总部):美国 $149.6B(69%,FY2025 为 59%)、台湾 $42.3B(20%,其中估计 76% 的数据中心收入最终流向美国和欧洲客户)、中国含香港 $19.7B(9%,FY2025 为 $25.0B)、其他 $4.3B(2%)。
| 客户 | 详情 |
|---|---|
| 直接客户 A(未披露名称) | FY2026 占总收入 22%(FY2025 为 12%),主要归属 Compute & Networking 部门。FY2026 末占 AR 的 25%。集中度同比显著上升,为 NVIDIA 历史上最高的单一客户依赖度。 |
| 直接客户 B(未披露名称) | FY2026 占总收入 14%,主要归属 Compute & Networking 部门。FY2026 末占 AR 的 18%。 |
| 间接客户:AI 研究和部署公司(未披露名称) | 通过向 NVIDIA 客户购买云服务,在 FY2026 贡献了相当规模的收入。反映 AI 模型厂商通过 CSP 间接驱动 NVIDIA 硬件需求的模式。 |
| 全球 CSP、Neocloud Builder 及 AI 模型厂商 | 所有主要公共和私有云提供商、AI 模型厂商和企业客户使用 NVIDIA 数据中心级基础设施。Q4 FY2026 超大规模客户收入占数据中心收入略超 50%,但增长由非超大规模客户引领,收入来源趋于多元化。 |
NVIDIA 在 GPU 加速计算和 AI 芯片市场占据主导地位。Data Center 收入 $193.7B 同比增长 68%,Networking 收入 $31.4B 同比增长 142%。竞争格局正在加剧:大型 CSP 加速自研 AI 芯片(Amazon Trainium、Google TPU、Microsoft Maia,FY2026 新增 Alibaba 和 Baidu 为明确竞争对手),AMD 在 GPU 市场推出 MI 系列挑战,Intel 通过 Gaudi 持续投入,Broadcom 和 Marvell 为 CSP 设计定制 ASIC。但 NVIDIA 凭借全栈平台和年度架构迭代保持显著代际领先。在游戏 GPU 市场 GeForce 保持领先。在自动驾驶领域竞争分散,包含多个芯片厂商和车企自研方案。在网络市场 NVLink 在 AI 集群互联领域领先,但面临 Broadcom、Arista、Cisco 等在以太网领域的竞争。
NVIDIA 竞争壁垒极为深厚,主要体现在以下维度:(1)软件生态系统:CUDA 自 2006 年推出以来已建立超过 750 万开发者社区,支持 6,000+ 应用程序的加速库和 SDK,形成了极强的生态锁定效应。竞争对手即使推出性能接近的硬件,也难以复制这一软件生态。NVIDIA 是加速和发布开源 AI 模型的领导者,使企业、主权国家和初创公司可在其平台上开发和运行应用。(2)全栈技术整合与数据中心级架构:NVIDIA 是业内唯一提供从 GPU、CPU、DPU 到网络交换芯片、NVLink 互联和完整系统的端到端数据中心级计算平台的公司。Blackwell 架构实现了芯片、网络、系统、软件和算法的极致协同设计,可互联数十万台 GPU 构成单一巨型计算机。(3)研发投入规模:自创立以来累计研发投入超 $76.7B,FY2026 单年研发支出 $18.5B(约 31,000 名研发人员)。拥有从 2026 年到 2045 年到期的大量专利组合。超过半数工程师从事软件工作。(4)年度架构迭代:已建立每年推出新数据中心计算架构的节奏(Hopper → Blackwell → Blackwell Ultra → Rubin),持续拉开与竞争对手的性能差距。(5)制造规模与供应链:$95.2B 制造、供应和产能承诺锁定了关键代工产能和先进封装产能,形成极高的资本密集度壁垒。(6)平台网络效应:计算平台可从几乎所有主要服务器制造商和 CSP 获得,Inception 创业加速计划覆盖数万家初创公司,Deep Learning Institute 提供全球开发者培训,形成自我强化的生态飞轮。
| 竞争对手 | 市场定位 |
|---|---|
| AMD (Advanced Micro Devices) | NVIDIA 在 10-K 中将 AMD 列为在离散和集成 GPU、定制芯片和 AI 加速计算解决方案、SoC 产品(服务器和汽车领域)以及网络产品(交换芯片、网络适配器包括 DPU、线缆方案)领域的竞争对手。AMD 推出 MI 系列 GPU 加速器直接竞争数据中心 AI 训练和推理市场,并通过 Instinct 品牌建立 AI 计算平台。AMD 同时在消费级 GPU(Radeon 系列)和 x86 服务器 CPU 市场有完整产品线,在网络领域通过收购扩展。 |
| Intel Corporation | Intel 被列为在 GPU、AI 加速计算解决方案、SoC 产品(服务器和汽车领域)以及网络产品领域的竞争对手。Intel 通过 Gaudi 系列 AI 加速器和 Arc GPU 产品线竞争。Intel 拥有自己的晶圆厂(IDM 模式),运营历史更长、客户基础更广,在数据中心 CPU(Xeon)市场保持领先,但在 GPU 加速计算领域市场份额有限。值得注意的是 NVIDIA 在 FY2026 投资了 Intel 普通股并录得收益。 |
| Huawei Technologies | Huawei 被列为在 GPU/AI 加速计算解决方案、云服务内部设计硬件/软件、Arm-based CPU 和网络产品领域的竞争对手。在受美国出口管制限制的中国市场,华为昇腾 AI 芯片成为 NVIDIA 的主要替代选择。中国政府鼓励客户从华为等国产替代方案采购,不鼓励客户购买、进口或使用 NVIDIA 数据中心产品。截至 FY2026 末,NVIDIA 实际上被排除在中国数据中心计算市场之外,且这种被排斥帮助竞争对手建立了更大的开发者和客户生态系统来挑战 NVIDIA 全球竞争力。 |
| 大型 CSP 自研芯片(Amazon、Alphabet、Microsoft、Alibaba、Baidu、Huawei) | 10-K 将 Amazon、Alphabet、Microsoft、Alibaba、Baidu 和 Huawei 列为拥有内部团队设计加速或 AI 计算硬件和软件的竞争对手。Amazon 自研 Trainium/Inferentia 和 Graviton;Google 自研 TPU;Microsoft 自研 Maia 和 Cobalt;Alibaba 和 Baidu 也有内部方案。FY2026 新增 Alibaba 和 Baidu 作为明确的竞争对手。这些 CSP 同时是 NVIDIA 最大客户和潜在竞争对手,可利用内部方案替代 NVIDIA 产品,且拥有庞大的资金和分发渠道优势。 |
| Broadcom | Broadcom 被列为在 SoC 产品和网络产品(交换芯片、网络适配器、DPU、线缆方案)领域的竞争对手。Broadcom 为大型 CSP 设计定制 AI 加速器 ASIC,是 NVIDIA 在定制芯片市场的重要竞争对手。同时在以太网交换芯片和网络适配器市场占据领先地位。 |
| Qualcomm / Marvell / Arista / Cisco / Renesas / Lumentum / Samsung / Tesla | Qualcomm 在汽车/自动驾驶 SoC 和 Arm-based 处理器领域竞争。Marvell 在网络产品和定制 ASIC 领域竞争。Arista Networks、Cisco 和 Hewlett Packard Enterprise 在数据中心网络交换机和解决方案领域竞争。Renesas 和 Samsung 在嵌入式 SoC 领域竞争。Tesla 作为车企自研自动驾驶 SoC 的代表被提及。Lumentum 在光模块/线缆方案领域竞争。Ambarella 在嵌入式视觉 SoC 领域竞争。 |
| 项目 | 时间框架 | 详情 |
|---|---|---|
| Blackwell Ultra (GB300) 规模化量产 量产中 |
FY2026Q2 开始量产 | FY2026 第二季度开始量产出货 Blackwell Ultra 平台(GB300),针对 agentic AI、推理和物理 AI 进行优化。利用 Dynamo 推理软件实现相比 Hopper 代显著的每 token 吞吐量提升和成本降低。Blackwell 架构(含 Ultra)在 FY2026 已成为 Data Center 收入的主要贡献者。Q4 FY2026 网络收入创纪录 $11.0B(+263% YoY)反映 GB200/GB300 系统中 NVLink 互联的爆发式增长。 |
| Rubin 平台发布 已公布,规划中 |
FY2027H2 量产出货 | FY2026 公布 NVIDIA Rubin 平台,专为 agentic AI 和推理设计,擅长多步骤问题求解和大规模长上下文工作负载,相比 Blackwell 实现每 token 成本最高 10 倍降低。体现公司一年一代的数据中心架构更新节奏,持续拉开与竞争对手的代际差距。 |
| Groq LPU 技术许可与整合 已完成 |
2025年12月 | 2025 年 12 月与 Groq, Inc. 签署非独占许可协议,获取其语言处理单元(LPU)技术并聘用部分 Groq 员工。总对价 $17.0B($13.0B 签约支付 + $4.0B 一年内应付),记录 $14.4B 商誉和 $2.5B 已开发技术无形资产(5 年摊销期)。商誉主要归因于人才和许可技术的未来开发潜力,分配至 Compute & Networking 部门,可税前扣除。成功整合需要大量工程投入且存在不确定性。 |
| 供应链地理多元化:向美国和拉丁美洲扩展 进行中 |
持续推进 | 公司正在将供应链从主要集中于亚太地区向美国和拉丁美洲扩展,以增强供应链韧性和冗余,并满足 AI 基础设施不断增长的需求。同时增加美国本土制造投资,购置专业化设备和工艺以支撑国内生产。扩产能力取决于当地制造生态系统提升产能的能力和速度,可能面临延迟或困难。 |
| 大规模云服务和数据中心基础设施投资 持续投入 |
FY2026-FY2032 | FY2026 资本支出 $6.1B(FY2025 $3.4B,+79%),预计 FY2027 进一步增加。签署 $27B 多年云服务协议承诺(FY2027-FY2032 分期支付,主要支持研发),FY2026 末签署的新运营租赁承诺包括大规模数据中心设施(租期 1.8-20 年)。FY2026 向早期初创公司等投资 $17.5B 私人公司和基础设施基金,并提供 $3.5B 的设施租赁担保。 |
| NVLink Fusion 和开放平台生态 已推出 |
FY2026 | FY2026 推出 NVLink Fusion,使超大规模客户和定制 ASIC 设计者能够将自定义 CPU 和 XPU 与 NVIDIA 平台集成。体现从封闭平台向更开放生态的战略演进,通过拥抱合作扩大平台影响力和 TAM,同时将竞争对手的 ASIC 纳入 NVIDIA 生态体系。 |
| OpenAI 投资与合作 谈判中 |
待定 | 公司正在敲定与 OpenAI 的投资与合作协议。此合作有望深化与全球领先 AI 模型厂商的战略绑定。但尚无保证将达成最终协议或完成交易。 |
FY2026 资本开支 $6.1B(FY2025 $3.4B,+79%),预计 FY2027 继续增加以支持业务增长。研发投入 $18.5B(FY2025 为 $12.9B,+43%),约 31,000 名研发人员,超过半数工程师从事软件工作。经营现金流 $102.7B(FY2025 $64.1B,+60%),自由现金流 $96.7B。股东回报方面,FY2026 回购 282M 股耗资 $40.4B(FY2025 $34.0B),2025 年 8 月董事会新增 $60B 回购授权,截至 FY2026 末剩余回购授权 $58.5B;支付股息 $974M。截至 FY2026 末现金及等价物 + 有价证券 $62.6B(FY2025 $43.2B)。2026 年 1 月将商业票据计划从 $575M 大幅扩增至 $25.0B。总债务 $8.5B(7 笔高级无担保票据,到期时间从 2026 年到 2060 年),财务杠杆极低。投资策略激进:FY2026 投资 $17.5B 于私人公司和基础设施基金(主要为早期 AI 初创公司),$13.0B 用于 Groq 许可交易,$3.5B 提供设施租赁担保。从 FY2026 末至 2026 年 2 月 20 日又回购 $1.5B。
NVIDIA 的合作关系战略覆盖全产业链:(1)制造与供应链:TSMC(晶圆代工和 CoWoS 封装)、Samsung(代工)、SK Hynix/Micron/Samsung(HBM 和存储器)、鸿海/纬创/Fabrinet(组装测试)构成核心制造伙伴网络,已扩展供应商关系以构建运营冗余。(2)技术合作:FY2026 与 Groq 签署 LPU 技术非独占许可协议,正在敲定与 OpenAI 的投资与合作协议。Inception 创业加速计划覆盖数万家初创公司。(3)生态系统:与全球所有主要 CSP、数百家 AI 模型厂商和企业客户深度合作。与数百所大学和研究机构开展 AI 合作,Deep Learning Institute 提供全球开发者培训。(4)行业垂直:在汽车领域与数百家生态系统合作伙伴(OEM、Robotaxi、Tier-1)合作;在医疗、金融、制造、零售等垂直行业建立合作加速 AI 采用。
NVIDIA 定位为数据中心级 AI 基础设施公司,正在重塑所有行业。核心战略包括:(1)推进加速计算平台:通过跨架构、芯片设计、系统、互联、算法和软件层的全栈创新,持续交付超越摩尔定律的性能飞跃。统一的可编程架构使公司能以共享底层技术支撑多个数十亿美元级终端市场。(2)每年一代的数据中心架构更新节奏:Hopper → Blackwell → Blackwell Ultra → Rubin,持续拉开与竞争对手的代际差距,计算行业正经历更广泛和更快的加速计算平台发布节奏。(3)AI 全栈定位:从硬件(GPU+CPU+DPU+NVLink+网络)到软件(CUDA+AI Enterprise+NIM+NeMo)到服务(DGX Cloud),提供端到端解决方案。NVLink Fusion 开放平台策略扩大生态边界,将竞争对手的 ASIC 也纳入 NVIDIA 生态。(4)Physical AI:通过 Omniverse、Cosmos 和 DRIVE 平台布局机器人、自动驾驶和数字孪生等物理世界 AI 应用。(5)软件和服务经常性收入增长:NVIDIA AI Enterprise 软件许可、DGX Cloud、vGPU、GeForce NOW 构建经常性收入流。FY2026 递延收入余额 $2.6B,新增 $11.1B。(6)市场开发与生态投资:加速发布开源 AI 模型(Nemotron、Cosmos),投资 AI 初创生态和基础设施基金,深化大学和开发者社区合作。管理层对未来愿景:AI 正驱动全球数据中心从通用 CPU 计算向加速计算的 $1 万亿级基础设施转型,NVIDIA 全栈平台是这一转型的核心赋能者。
NVIDIA 采用 52/53 周财年制度,截止日为一月最后一个星期日。FY2026 截止于 2026 年 1 月 25 日(52 周),FY2027 将为 53 周年度,其中第四季度为 14 周。FY2024、FY2025 和 FY2026 均为 52 周年度。53 周的 FY2027 可能对同比对比产生约 2% 的基数影响。
FY2026 产品保修负债余额从 FY2025 的 $1.3B 增至 $2.8B(+118%),FY2026 新增拨备 $2.5B、核销 $957M。保修负债快速增长反映 Blackwell 架构复杂度提升和从 HGX 系统向全栈数据中心解决方案的转型。FY2024 保修余额仅 $306M,两年内膨胀约 9 倍,值得持续关注。
FY2026 股票薪酬费用 $6.4B(FY2025 $4.7B,+35%),未摊销股票薪酬余额 $14.8B。FY2026 授予的 RSU/PSU 加权平均授予日公允价值 $134/股(FY2025 为 $88/股)。FY2026 股票薪酬(含 RSU 归属的税金代扣 $7.9B)合计消耗现金约 $14.3B。约 42,000 名员工中超过 40% 的新员工通过内部推荐入职,离职率仅 3.7%,反映人才竞争力。
2025 年 7 月美国 One Big Beautiful Bill Act (OBBBA) 生效,对美国联邦所得税法做出多项关键修改。NVIDIA 已在 FY2026 业绩中确认当前生效的 OBBBA 条款的税务影响。公司将继续评估税务机关提供的额外指南和解释的影响。以色列优惠税率为公司节省约 $3.1B 的税收。
加载中…
加载中…
加载中…
加载中…