TA的每日心情 | 擦汗 2026-3-17 22:01 |
|---|
签到天数: 1133 天 [LV.10]大乘
|
沙发

楼主 |
发表于 2026-2-26 21:43:21
|
只看该作者
后来想了想,我让龙虾爬了一个分析全球AI数据中心建设和运营成本的报告,内容如下:
1 W) a: _! l( D; a+ C# U. z; ]4 v4 v, A) u
一、总体分析框架与核心结论: w$ ]$ X( v3 ^5 b' }) o
1.1 分析框架概览. L' S7 d( I7 k- `
拆分维度
9 a6 t) S e; e" x3 @9 I5 @( l
8 O' u( N9 k( U% @4 C阶段:# {. p) U# d6 w/ f7 L) p* v: r
建设期(CAPEX):土地/建筑、供电与配电、制冷、IT 硬件(GPU/TPU/加速卡)、网络与其他基础设施5 M8 ~6 D! h1 k+ x. b+ ^7 p/ u$ b
运营期(OPEX):电力、水、运维人员、场地/托管、维护与更新、网络带宽等
% q$ |9 n- s6 o. h8 x区域:
% r( [0 j, |2 W$ Q中国、美国、欧洲、中东(以海湾地区/UAE 为代表)
: \9 j; Y0 ^' W) N技术方案:7 b. p0 g* {+ W
NVIDIA(H100 / H200 / B200 / GB200 NVL72 等)' A* {2 T8 t4 f1 V; r4 \7 _- z
Google TPU(v5e/v5p/Trillium 等)
& b5 Q8 h% ~) O9 ?: ~+ n( R9 a中国芯片:华为昇腾 910B / 910C 系列、阿里平头哥真武 810E(PPU)
+ K2 k" s4 @8 ?3 g算例基准0 u. [; O4 [: X, L
7 _, b+ t! U3 P' X' n
以400 MW 级 AI 数据中心为统一标尺(与 ChinaTalk BOTEC 分析保持一致)[1]:$ u' ~3 G- v( ]& t% V- s$ z
其中 IT 有效功率约 360 MW:GPU/AI 加速约 312 MW,CPU/存储约 48 MW
. \, E) N' `2 t: [& SPUE 假设约 1.11(高效液冷场景)[1][29]3 s+ i/ w& C0 b4 E
时间窗口:3–5 年运营期(与行业 TCO 分析和硬件折旧相匹配)[28]
. M4 y, v' g l; O( d" w* M关键指标
/ S; K. v$ L1 r$ u K3 b, h0 {" S' p" B0 \! I9 [! a
$/MW 建设成本(含/不含 IT 硬件)
9 D$ ^9 ^& q. z& M$/kWh 电力成本、L/kWh 水耗
" e4 } e, L& A A1 S, g5 a$/token 或 $/百万 token 的综合成本
3 _4 L+ ^% |9 s8 T V" B* MToken-per-watt / Joule-per-token 作为能效基准[17][18][26]* r7 Q o2 q! T3 L: l- d
项目 IRR/回收期、吨位级 TCO 对比(自建 vs. 云租)2 R# F( w) H+ j8 w0 E8 b
1.2 高层结论(供决策快速参考)
y$ s& @. q' y+ b5 M. Q/ J0 B) ?建设成本:AI 数据中心相对传统云数据中心成本翻倍* b. r% ^3 v: W* h
3 G& d: T2 t, i9 A9 ^) o% Y传统云数据中心壳体+机电平均约 $10.7M/MW (2025),预计 2026 升至约 $11.3M/MW[2][41]。0 E- a# x, X1 H; _
AI 优化数据中心(高功率密度 + 液冷)壳体+机电可高达 $20M/MW 甚至更高[41]。
% w# s3 R8 u. |& f. H2 `: p5 V3 s按 Accenture/Soben 研究,传统云 DC 为 $8–10M/MW,而 GW 级 AI 数据中心可达 $17M/MW(仅壳体+机电,不含 GPU)[3]。: {1 ]! D) N& s' f# f& ~# e& w
区域 CAPEX:中东≈中国 < 美国≈欧洲 < 高端 AI 园区 O2 u& P" \* S( ?5 ?
4 D2 c6 a6 l5 G1 ?, ` b中国:$5.5–6.5M/MW,400 MW 约 $2.4B[1][13]
: Q7 d. ], _! c9 v9 W6 A) Q! V/ y美国:$8–12M/MW,400 MW 约 $4.0B[1]- Q! n" i/ q0 F! X8 Q- f
欧洲:接近全球平均 $10.7–11.3M/MW[2][41]
1 H& o$ p; ~; @7 u; N7 ~. |中东(UAE Stargate 5 GW):总投资超 $30B,约 ≥$6M/MW[20]
* B+ J# w% _. o( {结论:中国与中东的壳体+机电 CAPEX 明显低于美国/欧洲,同等规模下节省约 30–40% 构筑成本。
. N/ B3 @" ]1 L9 S; V* o1 VOPEX:电价与人工决定区域优势
( q; v- W2 B: @ D* O+ a
' A9 _ o% H6 O7 h1 f! k3 [电价(2025–2026 工商业大致区间):) ?* M* Y; P( a p7 F) K
中国:约 0.8–1.1 元/kWh ≈ $0.08–0.11/kWh,部分算力基地可通过长协拿到 ≈3 美分/kWh[12][73]9 E! C0 ~7 |( O5 l3 G2 K$ V
美国:工业用电约 $0.085–0.09/kWh[44]/ A# A7 {+ I; M' A9 w! B
欧洲:非居民平均 €0.19/kWh ≈ $0.20+/kWh[45]- x8 D: M! n% _4 t9 H' r$ O7 Q0 d. {3 F
中东/UAE:工业用户 $0.07–0.13/kWh[47] X, b0 R! c% U" |
人工:
2 a" S& z) x: |中国数据中心运维:约 $22k/人/年% [* S, O" P9 P' S
美国数据中心运维:约 $120k/人/年[1]
$ B. E3 [3 z) x+ C1 w6 d3 j结论:电价上中国西部/北部与中东有显著优势,人工成本上中国远低于美欧。
) A/ j, Q( k: o能耗与每 token 能源成本:能效差异远大于电价差异
, K' D/ ^- `" D" `0 w3 \7 F. [. Z4 b5 G* p5 \
IEA:2022 全球 DC+AI+加密耗电 460TWh,2026 可能至 620–1050TWh[86][90];AI 专用服务器约 90TWh 量级[30][90]。
" W; E7 w8 }" ^4 y大规模 LLM 推理能耗估算:H100 集群训练 GPT-3 175B 约 2.46–3.63 J/token(训练)[10][16];经推理优化后,Inference 端典型可做到 0.4–1.0 J/token 级别[17][26]。
/ ~% q4 a! Y" _! v2 m9 F9 b将 token 能耗约化为统一口径:. |, z0 }; I* O+ j: @+ j# C
粗略取 1 J/token = 2.78×10⁻⁴ Wh/token。若电价为:+ S+ [( e% |5 }$ c
中国 0.3 元/kWh ≈ $0.042/kWh:电费 ≈ 1.17×10⁻⁸ $/token ≈ $0.0117/百万 token
6 U) ?* M C% v美国 $0.30/kWh(题设):电费 ≈ 8.34×10⁻⁸ $/token ≈ $0.0834/百万 token
, ]3 U( _6 r: w/ }; D9 S对比:OpenAI GPT‑4.1 / GPT‑5.2 系列对外 API 输出侧价格 $8–168/百万 token[62],电费占比 远低于 1%,真正决定成本差异的是硬件 TCO 和利用率,而非电价本身。
% G" O6 Z$ ~2 V- {2 O3 ^) _) q3 l不同芯片方案的核心差异. ^/ m+ P- d; v& B7 X V: Z1 N" J
1 R' T8 |8 s& `$ O/ Q7 ?
NVIDIA Blackwell/B200 & GB200 NVL72:$ ?5 {! y; M4 p& s
单 B200 GPU 峰值 ~4.5 PFLOPS FP4/FP8,功耗 600–1000W[68][69]。
# s( c3 ^9 V% aGB200 NVL72 整机架售价约 $3.0–3.35M,72 GPU[34][69],GPU 约占整个 AI 数据中心总 CAPEX 的 39% 左右[36]。
9 b3 z9 x% i6 ?( \+ [Google TPU v5e/v5p/Trillium:. g2 n8 i0 }8 f5 m
TPU v5e 8 芯推理:约 2,175 tokens/s(Llama2‑70B,INT8)[67];功耗显著低于 H100,同负载下能耗可降约 5 倍[67][52]。9 |7 U/ n0 q( T; O3 ], g6 _# E
Google 内部披露 TPU v5 能效约为 H200 的 1.46×,Trillium/TPU v7 更高(约 2× 甚至以上)[52][65]。5 N& U% V5 X; n3 S3 m- U; G/ t9 U
华为昇腾 910B:
4 a; r8 L4 z6 s. l5 J5 zFP16 算力 320–376 TFLOPS,INT8 640 TOPS,TDP ≈ 310W[80][81][82];能效接近甚至超过 A100,在长序列推理上 token-per-watt 可超 H200[71]。
9 j4 P: X0 R" B! Y单芯片成本约 5 万元人民币 ≈ $7k[60],显著低于受限版本 H20/H100。7 O9 A" {' y; ~# g1 A. i
阿里平头哥真武 810E(Zhenwu PPU):
( X7 |! O* g) j& V; |* x: J96GB HBM2e、700 GB/s 互联带宽[59][111],功耗约 400W 级别[102],整体性能对标 NVIDIA H20/A800,并已形成万卡集群部署[59][111]。
9 P$ v; ?0 u" C( c( y结论:' T" y# N8 @, L% A5 q5 H% H
能效(tokens/J 或 tokens/W)排序大致为:Google TPU v7/Trillium > NVIDIA B200/GB200 > TPU v5e/H200 ≈ 华为 910B ≈ 阿里真武 > H100/A100。4 N: d( B6 |; x
单芯片/整机价格排序:华为/平头哥 < TPU 自用成本(Google 内部) < NVIDIA 公版(H100/B200/GB200)。3 n; m6 o0 @6 C) R7 d" i- A
对中国市场,在算力性能足够的前提下,昇腾 + 真武 方案的 CapEx/每 token 成本有 30–60% 的价格优势。) N1 y0 ~& k. x8 [5 k6 D6 c
自建 vs 云租的 TCO 与 token 成本4 H) E+ ?+ U7 \$ G6 l/ u6 ]
8 z. ^: m- d2 S- ]# l/ t
LenovoPress 对 8×H100/H200/B200/B300 本地 vs AWS/Azure/GCP 的 5 年 TCO 对比[28]:
! v" t( T; P7 g m- i/ r8×B300(Config D)自建 5 年 TCO ≈ $1.01M;7 _+ W' ?. J; i+ }1 G$ |3 ~
等价 AWS p6‑b300.48xlarge(24/7)5 年 ≈ $6.24M,节省 83.8%。
7 p' T7 Q0 R* b8×H100(Config A)自建对 Azure On‑Demand,回本点约 2,720 小时(~3.7 个月),对 1/3/5 年保留分别约 4,423/6,800/7,591 小时(~6/9.3/10.4 月)[28]。
& Q& t) Z$ i7 Y# QToken 成本对比示例(LenovoPress 场景)[28]:
# T' B9 p1 C) Q( C pLlama‑70B 推理,8×H100 本地:约 $0.11/百万 token) e3 N; r# @( j, z! `
vs Azure H100 On‑Demand:$0.89/百万 token → 自建 ~8× 便宜。
9 F4 c6 G+ j* S同样 70B 模型,自建 vs GPT‑5 mini API(约 $2/百万 token):自建便宜约 18×。
|, B( e! `1 M7 y7 l& i/ MLlama‑405B,8×B300 自建:$4.74/百万 token,AWS B300 On‑Demand:$29.09/百万 token → 节省 ~84%。! ~" B- I/ Q% }6 f( V- F, M$ H2 [
结论:
) R) F& M' `* u2 i, [: p高利用率、长周期推理负载下,自建 AI 数据中心的每百万 token 成本可比公有云或高端闭源 API 低 1–2 个数量级。
( S, `* K* E7 gToken 电费占比极低,自建 vs 云租的差异几乎全部来自 硬件折旧 + 云溢价 + 运维与利用率。+ a* E' K4 |% {0 U
二、建设期成本分布:区域对比7 m& i+ {) o+ X
以下重点讨论 壳体+机电(不含 GPU) 与 全栈(含 GPU) 两层。( |6 B8 l7 S* E T! C0 k4 p
0 G) K9 ?% k, X3 z ~
2.1 全球/通用结构(以 1 MW 为单位)
; y6 A, N! U* p# L) D综合 JLL、ConstructElements 等[2][41][40]:& [6 C0 y2 _. Z
0 @2 G2 y% _' d壳体+机电(Shell & Core)
5 j+ ]' ^7 L% F2 O3 | U# Q( B% C
n* f+ q! c/ R9 B8 |: d全球传统 DC 平均(2025):$10.7M/MW,2026 约 $11.3M/MW[2][41]
/ B) o/ D8 U) P& X" ?- B: Q3 H2 o6 V其中按成本构成[40]:, o6 p% }* ^2 ?
电力系统(变电、配电、UPS、母线等):40–50%
! X" N- f2 ]( X. D8 j7 ?7 p: d# R机械与冷却(冷机、冷却塔、管路、CRAC/液冷):15–20%
$ `) z; t4 C/ `0 X% U建筑与土地、结构:约 15–20%3 q" v$ s- C" O# f# C' J
其他(消防、安防、楼宇管理等):约 10–15%
; b+ h/ g0 g! N y! w% c) l& K4 [IT 内装与 AI 基础设施(不含芯片)5 o/ P6 s: f! Q/ k2 ` f( x
" e8 K- s9 T3 d! O$ ~6 t高密 AI 集群内部装修(高密布线、机架、液冷板/浸没舱等)会在每 MW 额外增加 $25M/MW 量级[40],对 GW 级园区影响巨大。% |: V/ }: `' [' H, W
GPU/加速卡硬件 CAPEX, [: r$ x; g6 {7 h; Z: Y6 J1 i
6 S5 _! h& A! L0 ?) N+ y多数分析认为 GPU 占 AI 数据中心总 CAPEX 的 30–40%,其中 NVIDIA 单家毛利约等于整个行业 CAPEX 的近三成[36]。
* Z' W9 I+ ?9 W& B: W2.2 中国 vs 美国 vs 欧洲 vs 中东:1 MW 建设 CAPEX4 ^1 x; U9 _) |1 I2 N
结合 ChinaTalk、JLL、UAE Stargate 等[1][2][20][13](仅壳体+机电):1 s# ]# d$ e( K
, x1 k d+ B0 B0 A
区域 典型建设成本(壳体+机电,$M/MW) 备注4 I/ S) f+ {) b2 G: d! P
中国 $5.5–6.5M/MW 以西部算力基地为主,400MW ~ $2.4B[1][13]
3 |- m! d' y2 ]美国 $8–12M/MW 典型超大算力园区 400MW ~ $4.0B[1]
- ~; x+ ?7 O5 O' W) k$ y欧洲 $10.7–11.3M/MW 接近全球平均,部分核心城市更高[2][41]
9 J, N- p1 W9 K$ Z中东 ≥$6M/MW UAE 5GW Stargate >$30B → ≥$6M/MW[20]
. E- U Q1 ~. A结论:/ ^! d7 m8 Z0 `$ s
3 {, K! ^! t8 j6 D# I+ w" `单位 MW 壳体+机电 CAPEX:中国 ≈ 中东 < 美国 < 欧洲。
* ]8 G; l0 U4 n( |4 F0 Y# h若考虑土地、电网接入和许可周期,中东(特别是 UAE/沙特)在电力可得性和政府补贴方面往往优于欧洲,趋近美国甚至中国。' B2 G5 `. C' @+ b. l. W% a
2.3 引入 GPU 后的全栈 CAPEX(以 400MW 集群为例)& N: h8 o% ~8 @# e4 E j
以 ChinaTalk 的 400MW NVIDIA GB200 NVL72 集群为例[1]:9 S/ B* C$ {& k, e" `
( R7 M8 O- s/ s2 _2 H9 I
假设:PUE=1.11,电力侧 400MW,中约 360MW 投入 IT;
& f( W3 ~. W7 C) M" d3 }GPU 配置:& J% U. C7 o' {: Y; ~9 S
有效 312MW 用于 GB200 NVL72,约可容纳 2,154 racks(每 rack 144 GPUs,对应功耗 ~145kW/rack);! R: s z. d. _' J
每 rack 成本 ≈ $3.0–3.35M[34][69];
& t1 g# h( z. m1 mGPU 总 CAPEX ≈ $6.5–7.2B 量级(ChinaTalk 抽样约 $5.6B 略保守[1])。5 ?& N4 o; Q1 K$ Q' c# ~& f/ B" z
与不同区域壳体+机电组合:2 n+ q) I4 e5 C9 K1 ]2 w( M
7 o- o6 q6 c4 E" M' ^
以中值估算:: Z: Y& \$ J- f7 h) Y
2 ?, I$ p* Y* k. n( ]# j中国 400MW:壳体+机电 $2.4B + GPU $5.6B ≈ $8.0B3 ?3 m, i+ \! L4 w' S
美国 400MW:壳体+机电 $4.0B + GPU $5.6B ≈ $9.6B
4 |+ W/ s& I, g2 e欧洲 400MW:壳体+机电 $4.5B + GPU $5.6B ≈ $10.1B* C5 [* p1 R7 C
中东 400MW:壳体+机电 $2.4–2.8B + GPU $5.6B ≈ $8.0–8.4B/ E/ d U( E/ V' _5 S
可见:
0 F3 U: v, w3 K0 H B9 s
- `: |: g2 T. F0 JGPU 成本在各区域大致相同,决定区域 CAPEX 差异的主要是壳体+机电与土地/电力接入。
" R+ V* s, M5 g9 B2 P% Q相比美国/欧洲,中国和中东可在 400MW 级别节省约 $1.6–2.1B CAPEX,这对 IRR 有直接影响。4 _: V8 e7 G9 s9 J& c3 o; i) S, W
三、运营期成本结构与区域对比6 D. Q5 Y8 G! E- k/ D
3.1 通用 OPEX 结构(高密 AI DC)
& ^: w) e# v3 b$ [* _0 X结合 ConstructElements、IEA、Microsoft/Google 披露[40][86][103][104]:* \: i, _8 P" a* h. q$ P& w" `: u3 _
* g; e: s) L* J) J% v
电力:约占总 OPEX 的 20–30%(传统 DC),对于 AI DC 因 GPU 负载密度提升,可达 30–40%。
1 N' l; P" a4 A( Q冷却与水资源:
' n# j. k- S R% B* y" m, X a能耗:传统风冷约占总功耗 30–40%[39];液体冷却可将 IT 与制冷合并大幅降 PUE 至 1.1 左右[29][115]。- c; K) D; F; b
水耗:典型 DC 约 1.9 L/kWh 水用量[105],每日用水可达 300,000–5,000,000 加仑 规模[100][101]。' M! C7 `+ Q6 w- e
人工:视地区而定,在中国/印度/东南亚占比 5–10%,在美欧可达 15–20%。; {6 B% o; D8 i1 |
托管/物业与维护:/ [0 e8 M3 A2 Z' q$ N b8 S
托管:高密机架约 $1,500/机架/月,标准机架约 $600/月[40][28];
4 \8 T3 ?$ L4 Y$ U9 _! o硬件维护:LenovoPress 模型中按设备价 12%/年[28]。3 w9 @ D4 k' W: N5 |- _2 ~+ P
3.2 区域差异(以 400MW / 3 年期为例) H$ A+ m( F1 P; p; F
使用 ChinaTalk 的电费与人工估算[1]:% n- E) \1 C; B5 `) D1 ^
, B9 E, _) J, A6 E" r电费(3 年) – 假设 GPU 利用率 60%,IT 360MW,PUE=1.11:% M! {/ i- w2 M( n
中国:约 $0.06/kWh → 3 年电费 ≈ $350M
% I6 g$ B1 T7 W$ [: L% ]美国:约 $0.09/kWh → 3 年电费 ≈ $600M& }3 p: u l4 s1 C* q
中东:约 $0.07–0.10/kWh → $400–550M
* G a9 }/ T. q0 \! _欧洲:约 $0.20/kWh 以上 → 电费 > $1B(显著劣势) v9 f, z8 i5 s& \7 X
水费(3 年) – 以 MS Fairwater 站点 280 万加仑/年为参照[1][103]:/ c% F0 _0 s1 o |- L: V& ^8 |
美国水价约 $5.18/千加仑,中国约 $2.57/千加仑[1]
2 E. @6 ~0 r5 ]三年水费级别:* B, s8 E2 N0 k e, ?% n" w
美国:$40k+9 h0 w4 a' P" S2 d* p' X
中国:$20k+) [; O; c( q( t1 h: [1 P2 c0 q7 H
结论:水费是数量级上可忽略的小项,真正的约束是水资源总量与选址,而非成本。
* g- H& _+ _! t* E M" y7 l人员成本(3 年) – 假设 500 名全职运维:8 q4 h- q" e1 u: d: {& G t
美国:500 × $120k × 3 = $180M+) R- v6 p5 {, t9 R# j: a
中国:500 × $22k × 3 = $33M+
3 `- x2 i4 w3 ?# o! ]4 b差异约 $150M,规模与 3 年电费差不多,是中美间第二大成本差异来源。
* g6 Q1 \! R! @9 d x M: a0 H2 O整体 OPEX 粗算(3 年) – 400MW 场景下:3 h, l. a9 ?: M" [$ X; L
& e8 N( H9 ~& I0 }4 w项目 中国 美国& X: x0 k( s$ A$ c/ c
电费 $350M $600M: S, J6 {; V {1 u
水费 <$0.05M <$0.05M, s& T" H; ~& d
人员 $33M $184M- u8 z; l* m. Y& Z; W. L J0 i
其他维护/托管 同比例估算,地区差异主要体现在人工与地价 ' t1 _ u K+ X3 h) {$ Y, x$ o* [
结论:9 R( j1 C) ^/ N
* _1 h6 e; e- F/ R$ T- t4 A+ q1 D
就 3 年期而言,中国与中东在 电价+人工 两项合计可比美国/欧洲节省 数百百万美元级,与整体 CAPEX(数十亿美元)相比不算决定性,但对净现值和现金流有实质贡献。
2 ?$ E$ b! q& s% I1 ?5 w" s" o6 }对大模型服务商而言,更核心的是 GPU TCO 与 token 单价之间的剪刀差,而电价更多影响“边际利润率”而非“能不能赚钱”。
' Y4 w0 }3 T, C四、基于 token 的成本与利润推演
1 ~; M/ \( @) M# P, x, q4.1 能源维度的 token 成本(题设 0.3 美元 vs 0.3 元)9 Q- b* i, x7 d! L& i
统一假设:
0 u, @$ T0 n+ \+ G0 c+ a8 g
" Q, ~0 m* ]( P6 y6 f典型大模型推理能耗:约 1 J/token(考虑 FP8/BF16 优化、Batch=256–512 时的能耗甜点[26][17][18])
, G" U% G2 }, a ^1J = 2.78×10⁻⁴ Wh → 每个 token 约 2.78×10⁻⁴ Wh
/ k( Z) g/ n5 g% \$ x5 E; Y1 百万 token:278 Wh = 0.278 kWh2 |4 b; d- Y6 ] v, ~8 z% Q
场景 A:美国电价 $0.30/kWh
4 h, u u2 I8 _' }) @, w电费/百万 token = 0.278 kWh × $0.30/kWh
& D' _" @$ [# k2 W. a8 N6 Z≈ $0.0834 / 百万 token
9 J7 V" @3 G, W5 ~场景 B:中国电价 0.3 元/kWh ≈ $0.042/kWh: s$ ?) S; F+ k' p. o& J
电费/百万 token = 0.278 kWh × $0.042
$ N$ R0 _! v7 i# A' O" N≈ $0.0117 / 百万 token
2 N7 ~6 }6 S. Z8 N! [对比当前 API 价格(OpenAI 2026Q1)[62]
( c. M: E- Q$ w# K& e" E; U( u h& r以输出侧为主(成本最敏感):
/ H9 L; H* ]3 z: {& G1 W, m0 ^8 d
" |& U, S& _9 m模型 输出价 ($/百万 token)
3 r: W) H" W9 `* T ]) @GPT‑5.2 $148 w( G2 i; `) a2 m' M* g! O& e
GPT‑5.2 Pro $1687 T: U# U4 C/ _3 e" s# Y
GPT‑4.1 $8/ I+ k9 @0 r% |, _6 l6 w+ @
GPT‑4o $10( c0 S0 Y2 T% x& a i
GPT‑4o mini $0.60
; I! C7 Z' I2 Y. i则:
, ~/ Z1 h- H) u% _+ A0 \! v
# U7 H8 ~5 ~2 U6 R7 C在美国 $0.30/kWh 的极端高电价下,电费占 GPT‑4o mini 收入的 ~14%(0.083/0.60),占 GPT‑4o 仅 0.8% 左右。% P9 I3 h. Z6 [
在中国 0.3 元/kWh 下,电费占 GPT‑4o mini 收入的 ~2%,占 GPT‑4o 的约 0.1%。+ j# U" ^: Q1 y! @7 I2 [# ?
相比之下,GPU 折旧+云溢价+开发/运维成本才是主导。* p% @: o+ a) A4 f/ `$ p2 Q7 w _
结论:
% Y9 }0 q9 i) U; p+ G' m" }: x0 P即便在“美国 $0.30/kWh vs 中国 0.3 元/kWh” 的极端对比下,每百万 token 电力成本差异约 $0.07,与主流 API 价格($0.6–$168/百万 token)相比仍属“小数点后两位”的影响。区域电价主要调节“利润率边际”,而不会改变“项目能否盈利”的结论。9 C% f1 r$ x. f2 [
6 f9 B" f }- G. H: n9 W4.2 全成本 per token:自建集群视角(基于 LenovoPress TCO)% j# L: Z" b1 v7 U
以 LenovoPress 的 8×H100 Config A 为例[28]:) h$ q, g: }! e
9 ?' O( F* o! k( [
5 年摊销下,8×H100 本地推理 70B 模型:
' n' t% O, P' N) m2 i7 l8 ~- F小时综合成本(CapEx摊销+Opex):$12.08/h
5 a( x# \: D$ ~0 L吞吐:30,576 tokens/s → 每小时 ≈ 110M tokens
$ R& I4 T6 G4 I$ u成本/百万 token ≈ 12.08 / 110 ≈ $0.11/M token
8 M! h: t7 R# T" Z; C电费在其中的占比:. Y% H5 b5 b4 h5 s
Opex 6.37$/h 中电力+冷却约 $0.87/h[28]/ j3 u, F' U. ]: j+ o
电费/百万 token ≈ 0.87 / 110 ≈ $0.0079/M token
: B: \2 ^/ k- P9 H电费占 总 token 成本 ~7% 左右。% V' B. R$ ]& s+ o2 x7 x) a
若将美国电价从 ~$0.12/kWh 提高到 $0.30/kWh,则电费约增 2.5 倍,对总 token 成本影响约 +10–15%。3 @8 o7 B; u0 r9 x0 T8 b
若迁至中国西北 0.3 元/kWh 或中东低价长协,电费可再降 40–60%,总 token 成本再降低约 5–10%。" G! [3 N: R$ w4 d" P
6 V% N' p$ X8 S) M/ P
因此:2 ^6 _% l( \; h p3 C0 ~- X7 \
7 @% C9 v* S% k0 x& J d+ v+ t' x' j在自建集群场景下,电价对 token 成本有可见但非决定性的影响(变化量级在 ±10–20%)。# X# f! P. ~) r( e
在云租和 API 模式下,电价影响则被进一步摊薄,绝大多数利润被云厂商的溢价和 GPU 供应链吸走。
$ y- M. x3 H% U" p5 Q7 F: e/ X, J五、不同芯片方案的建设与运营成本对比
$ z" B3 a, Z) d7 ^( M5.1 NVIDIA 方案(H100/H200/B200/GB200)( N$ h( r# v9 ?" t- X8 A
CAPEX:
" H1 A; ?) K) a/ [; @
6 h i$ k3 C0 a! XH100:单卡市价 $25k–35k,8 卡服务器约 $250k+(Lenovo 配置价 $250k 左右)[9][28]。
/ j+ Q6 z9 X8 ^; u5 z6 BH200:显存提升,单卡价更高,8 卡节点约 $280k[28]。
B2 x6 H+ E. z) ~( R6 H" w' mB200:Blackwell 代 GPU,8 卡服务器约 $338k[28]。
" I* d' q6 p3 w0 V* C! S- TGB200 NVL72:3 a, V8 J+ K9 N1 J6 {, O
每 rack 带 72 GPU + 36 Grace CPU,售价约 $3.0–3.35M[34][69]。0 U8 ~- x' A9 ]- N/ p
冷却系统每 rack 额外 $50–56k[35]。
2 C+ a- N0 l3 j1 M& L7 [在 400MW 场景中,GPU 总 CAPEX 约 $5.6–7B,占总体 CAPEX 近 40%。1 J4 f% K$ N2 @! Z8 b
OPEX & 能效:- u ]6 R ~) b4 f: F3 x0 y
* U; u* i" ?( f- I- H; \5 G ~" a
单 GPU 功耗:
! s) `! r, p( {- l& }& {H100:TDP 700W;集群实际单 GPU 含服务器/网络开销可到 ~1,500W[16]。
- `' ]! `* J) e3 e0 q8 }H200:功耗类似或稍高,但性能/W 提升[9][10]。
5 R! `9 ]% u- K/ HB200:标称 1,000W TDP,但实测约 600W 左右[68][69]。0 e# k5 [! Q8 f2 U. l7 D
Token 性能:
" G4 V3 Z0 a' l; d, U( z$ t1 jB200:官方推理基准中,可达 60,000 tokens/s/GPU 级别(gpt‑类模型)[68]。
; Y5 N6 L8 |- ?5 F6 ~NVIDIA 的优势:# w1 f! {! C- [) w+ H
: x5 C) i$ R" \
软件栈成熟(CUDA/TensorRT‑LLM),易于榨干硬件性能,batch 与多 GPU 并行调度成熟 → 在同等 PUE 与模型条件下可达更高 tokens per Watt。
8 @: {8 |6 F% ^ _2 ?' `. g F- Z/ H但硬件价格与毛利极高,从 TCO 角度,“谁买单 GPU 溢价”是关键——云厂商多半将成本转嫁给 API 用户。, o( e7 ?& V) h# v0 [" k& T8 u' H
5.2 Google TPU 方案
3 U8 @2 k- C I; ]9 {CAPEX:
4 N! o+ B7 r- {* ~. I# m* P4 c. m- i7 D# Z
单 TPU v4 定价约 $3.22/芯片小时,v5/v6 在云端按实例小时定价对外[52][54]。3 H, L. s. d: p& i
GSR 估算:TPU 的出厂 ASP 约 $4,500–5,000/片(Google 内部成本)[54]。4 ?; S( w; h7 p3 S. q) p# s& b) g; C
8 TPU v5e 实例约 $11/h,而 8×H100 云价可高达该数值的 5–10 倍[52][54]。* V# S8 I3 U3 z3 P
能效:. l/ ]' ~ e& u0 o( }; g
" X" f, p$ A7 d# z3 Q$ v* P; D# FTPU v5e vs H100:) t$ Q! j9 I* ^5 }* m$ m6 b% c
同级推理场景下,8×TPU v5e ≈ 2,175 tokens/s(Llama2‑70B,INT8)[67],H100 需更高功耗才能匹配。) y3 L9 F9 a( `
测试表明 v5e 功耗约为 H100 的 1/5 左右[67][52]。
( J* H2 K4 S3 J新一代 Trillium/TPU v7:8 o+ t7 w: G2 G& M) D3 x+ h
能效比 TPU v5p 提升 ~67%,对 H200 或 B200 整体上能实现 2–3×性能/W 优势[52][65]。1 a" ^' }% \& L/ X2 r
Google 方案的特点:2 X3 b; d3 K; t9 a" ?8 D
2 o4 O! J1 o k8 p* C" {1 t" y0 P
自用闭环——Google Cloud + TPU + Gemini,利润来自整体云栈,而非单个芯片;
$ ]! z8 ?6 n' V0 J6 s对外公布的 API 价格较为激进,TPU 方案在 tokens/W 与 tokens/$ 上具有显著优势,尤其在内部工作负载。
8 V* J/ N9 T8 J5.3 华为昇腾 910B / 910C 方案4 u% W5 f" _- z6 S$ e
CAPEX:$ R3 f9 P/ t5 w6 T% k0 _
, j# D. m; [* K2 O
单 910B 芯片成本约 50,000 元人民币 ≈ $7k[60];910C 约 110,000 元[60]。
+ i: C0 r7 o6 V7 {7 S. z与 A100 对比:+ Y* R0 g+ M9 i% A( K, |0 `
FP16 算力 320–376 TFLOPS,功耗 310W,性能接近甚至略高于 A100(400W)[80][81][82]。7 h, Q: i: u7 y( T/ p
市场报道中,NVIDIA H20 在中国售价约 10 万元/片,而 910B 更便宜 30–40%[61][72]。' N5 `$ C: G% `3 i7 p
使用昇腾构建类似 400MW 级别集群,总 GPU CAPEX 相较 NVIDIA 可节省 30–60%,视集群规模与供货条件而定。# i6 h/ p- Q+ m3 A* z1 B7 R: ^+ h
OPEX & 能效:; N! G4 K8 [- o9 W- ^
/ s% d. x( }. }! F8 m
910B 功耗 310W,FP16 320–376 TFLOPS → 性能/W 与 A100/H20 接近或更优[80][81][82]。
$ S5 C' U) o9 e6 J% M部分推理 benchmark 显示,长上下文(>4k token)推理时,910B 在 tokens-per-watt 上可超过 H200[71]。1 o' G7 i) S0 [* ^: T, I
在中国电价(0.3–0.4 元/kWh)环境下,昇腾方案在 TCO/tokens 维度有明显优势,但生态与软件栈仍在追赶 CUDA。6 F1 ~* l! Q, R3 t$ e
5.4 平头哥真武 810E(PPU)方案
# }( g! F5 X: t- K+ KCAPEX:. G. u$ E* q) n
o0 [3 |+ b* h9 a$ V g/ M技术参数:
; W# L1 ]+ r3 e3 H96GB HBM2e,片间互联带宽 700GB/s,自研 ICN 互联,PCIe 5.0 ×16,400W 功耗级别[59][102][111]。
+ [1 q( s& m. @: j8 @3 e, }0 ~; ^性能:官方宣称整体性能超过 A800 与主流国产 GPU,与 NVIDIA H20 大致相当,升级代际可逼近/超过 A100[59][110]。/ Y0 v! z o. q5 E. |- ?
价格:% k+ n! G5 l. I) Q* v: I6 k0 x
未公开详细单价;多个媒体报道指出“单位算力成本可下降 ~40%”,与英伟达 H20 有 3–4 成价差[74][112]。
0 p$ ?$ h" f4 g3 t; o结合国内报道:
5 a4 W/ T/ u1 J# s' z, `' o9 j7 W% a% F2025 年出货量数十万片,已在阿里云实现多个万卡集群部署,服务 400+ 客户[59][111]。
* J/ s5 N' k5 Z; S. _' ?" r9 i数量规模与生态成熟度迅速提升,使得 真武+昇腾 成为中国公有云/算力租赁的主力基础。7 i: D- s" J* l4 l) L
OPEX & 能效: F& @) C( e+ r
$ b- c- I T9 P
400W TDP、96GB HBM2e,使其在 高上下文、RAG、大模型训练+推理一体化场景 中具有良好性能/能效平衡;
$ D" P! }" {" H& ~! w0 X7 u7 b在中国低电价 + 低人工成本环境下,真武方案可将 AI 推理服务的综合 token 成本进一步压缩 —— 对标 NVIDIA H20,本地算力提供商可在保持 ~8–9 成性能的前提下降价 30–40% 仍保持毛利[74][112]。/ u% x( S. z5 a! ^
六、综合比较与策略建议! `9 Q, O' ?/ z6 q
6.1 区域维度:在哪里建 AI 数据中心?4 X) }* D7 E& N; W3 Z* W0 u- N
纯经济性(TCO/tokens)排序(假设无政策/合规约束):* f4 ^3 K7 z+ ~
2 W3 w" s7 Z( W4 P
中国西部/北部(电价低、人力低、建设成本低)
6 W @/ i' E" J/ ]& I* i中东(UAE/沙特)(电价中等偏低、土地与电力可得性好、政策支持)6 `. x8 P9 z& \$ c$ O
美国电价低但人工高;东海岸/加州电价上涨压力大4 N8 m) i$ e7 S
欧洲电价高、审批严格,但接近高价值企业客户和数据主权要求
. O- I1 A4 E9 s* l) y: Z若以“美国 $0.30/kWh vs 中国 0.3 元/kWh”极端场景比较:# M/ @1 `. |6 q8 g
' [. Q7 q" [9 D4 R6 Y, u
纯电费/百万 token 差异:约 $0.083 vs $0.012 → 差别 ~$0.07/M tokens;* U( J7 i3 Z( e
对比 API 价格:差异对整体利润率的影响远小于是否使用 NVIDIA vs 国产芯片、自建 vs 云租的差异;
2 u, n* v" W- K4 z; C, Q但在极高利用率的 自建超级集群 场景,电价仍然能在 5 年 TCO 上带来 10–20% 的边际优化,是选址决策的重要考虑。; _0 p2 r# t1 r0 O
6.2 技术栈维度:选哪家芯片/云栈?
l; z- g& y1 Y/ [若目标是全球最优 tokens/$ 且不受出口管制:
* b0 B7 T% i0 }+ U9 o
( }5 k: P i' Q% M+ `2 ^& d9 P+ oGoogle TPU v7/Trillium + 自建 on-prem:性能/能效与成本的综合最优,但前提是可以直接获得 TPU 硬件与软件栈授权(现实中仅限 Google 内部和极少数大客户)。
% ?) G: @: A9 u4 c' C/ F% W9 \若在美国/欧洲,能自由采购 NVIDIA:( W7 z4 E2 F' g
4 e. d, @/ h; @% f8 \% u/ V
短中期内,NVIDIA B200/GB200 NVL72 仍是最佳实践:: u- G0 `- S" a: V1 g- m
成熟的软件栈与生态,极高的 tokens/s/GPU;
% a, }1 z) D; P2 q3 u在云厂商/超大规模自建模式下,配合液冷与 PUE~1.1,可取得较低的 token 成本;
( P/ [6 L# {3 P但要谨慎评估 GPU CAPEX≈总投资 40% 的集中风险。* w+ P- }. s) j
若在中国或存在出口管制约束:
1 L& h9 m5 B, ~6 W1 ]9 T$ T" Z {
; U$ x6 t; v& C, _) K" t6 n昇腾 910B/910C + 平头哥真武 810E 是现实可行的主力组合:3 r1 M e% t# W3 W2 U
性能上已能覆盖大部分 GPT‑4 类推理需求;; A" [. {& k1 V3 g
单片成本显著低于 H20/H100,集群 CAPEX 明显更友好;
' }4 K' \% s" o/ j8 O; Y0 g软硬件全栈国产(CANN + MindSpore + 通义/Qwen 等),可避免制裁风险;
; [5 S$ N" K/ X8 d+ [建议配合:/ m; @* {2 S$ J
高效液冷(PUE~1.1)、4 R5 {! F5 f2 G+ T+ L& ], o6 l3 |
大 batch、路由(浅层任务走小模型/低成本芯片)、
; u# q* f6 o, ]" e3 D3 _强量化(FP8/INT4)与分层缓存策略,进一步摊薄 token 成本。
/ \! _" t4 m9 s6 C长远看,“tokens-per-watt / PCE” 取代单纯 PUE/FLOPS 成为核心 KPI:+ V x- W1 B/ _2 L
* E9 X6 X, M. m+ R数据中心运营者应从“PUE 1.5→1.1”的设施思维,转向“每瓦输出多少有价值 token”的AI 工厂思维[29][118]; V/ w6 }! ^8 r$ ~( V
这意味着:
- H x& t& o: z6 `优先选择 更高 tokens/J 的芯片架构(例如 TPU v7、B200、后续国产芯片);% i* B, h$ m" R! q1 G# D4 O- F
精细化调优 batch size、路由策略、CoT 深度,将“energy-per-token”作为最优先指标来优化[17][26]。
3 u! p+ b: y- H L0 s% c: Y6.3 针对你关心的具体问题的简要回答
; E' U" O9 I7 q' \4 U6 c+ mAI 数据中心建设 vs 运营成本的大体比例?$ A) f8 `: f6 ~
7 v: {" Q7 g% a6 a+ l9 G9 l在 5 年期 TCO 视角下,CAPEX(尤其 GPU)约占总成本 50–70%,运营成本(电力+冷却+人工+维护)约 30–50%。4 s( y, D P# u- F% @+ x
其中 GPU 自身 CAPEX 占到总 CAPEX 的 30–40%[36]。
4 Q" K0 \. o8 r8 V" h/ `; P中国、美国、欧洲、中东的成本结构区别?
8 Z9 j7 e0 _: g+ S R! w7 t
3 J' i$ f( l6 X8 d5 W8 i8 ]3 u% S$ {建设期:% S0 |, x8 O/ {( i/ E, G0 E3 @1 `
中国/中东的壳体+机电成本明显低于美欧(约 5–7 vs 8–12 vs 10–11M $/MW)[1][2][20]。! w: t1 E E: v: \! c
运营期:: u, G8 k* R# ?7 n8 W) i1 y6 }" O' [
电价:中东 ≈ 中国西部 < 美国平均 < 欧洲0 p b7 Z( I+ j2 {8 v. D
人工:中 国 ≪ 美 欧,中东居中。4 r4 J9 g( W9 \6 `+ a \
在美国 $0.3/kWh 与中国 0.3 元/kWh 下 token 成本与利润率?2 @* m2 a2 V9 C4 ?7 ?+ k
) Z/ n! D. [1 S/ h, N1 G0 o
对于典型 1 J/token 推理负载:' K6 H# T B& I, K7 G4 m3 C2 T
美国 $0.30/kWh:电费约 $0.083/M token
9 _7 d# F& m/ U) p' N O0 Q中国 0.3 元/kWh:电费约 $0.012/M token
+ z6 y$ W% p& D6 }3 K对比 OpenAI 等对外价格($0.6–168/M token),电费无论在中国还是美国都只是利润表里的“小头”,主导因素是 GPU TCO 和平台溢价。
) ~$ U4 Z' l9 _' u8 T' I不同技术方案(NVIDIA / Google / 昇腾 / 平头哥)的建设与运营成本谁更有利?* k( f+ P, e! D C/ Q8 U
+ I2 F5 c x, O* g1 ^
在可获得 TPU 的前提下:Google TPU v7 在 tokens/W 和 tokens/$ 上最优;
0 j/ w& m' Z, i7 h9 D1 F, ^3 G; b7 i- t全球通用方案:NVIDIA Blackwell 全家桶(B200/GB200)+ 液冷,但 CAPEX 巨大;
2 } ^* q# {- i% c B中国/被管制市场:昇腾 + 真武 是当前最有经济性与可持续性的路线,综合来看能把 token 成本压到 NVIDIA 方案的 40–70%。 |
评分
-
查看全部评分
|