OpenAI 宣布首个欧洲 AI 数据中心项目 Stargate Norway:明年内部署十万 GPU
作者:微信文章点击上方蓝色字体关注我👆
最近,OpenAI在北极圈搞了件“大事”:
宣布要在挪威北部的纳尔维克市建一个巨型数据中心,计划到2026年底部署10万块英伟达显卡。
消息一出,国内科技圈的讨论热度几乎赶上了挪威的水电站发电量。
有人觉得这是“AI算力军备竞赛”的新里程碑,也有人质疑:
“10万块显卡堆在一起,真的能解决AI的算力焦虑吗?”
今天咱们就来唠唠这个话题,看看这个“北极圈大仓库”背后到底藏着啥门道。
一、为什么是挪威?显卡也需要“避暑山庄”
先说个冷知识:
全球数据中心的耗电量占全球总用电量的1%左右,比整个日本还多。
而OpenAI这次选的挪威纳尔维克,既不是硅谷,也不是北上广,偏偏是北极圈内一个常年平均气温只有5℃的工业小城。
这选址背后,藏着一笔精打细算的经济账。
1. 电费比国内便宜一半,水电还能“续命”
挪威的电力结构中,水电占比超过90%。
当地水电站多到什么程度?
如果把挪威的水电资源装进一个游泳池,大概能淹没半个欧洲的工业用电需求。
相比之下,国内数据中心的电价普遍在0.3-0.6元/度,而挪威的工业电价常年维持在0.2元/度左右。
算下来,10万块显卡一年省下的电费,足够给整个纳尔维克市居民发3年的供暖补贴。
2. 自然冷却省下一笔,北极圈是显卡的“空调房”
数据中心最大的开销除了电费,就是给服务器降温。
OpenAI这次用上了闭环液冷技术,简单来说就是用绝缘液体直接泡着显卡散热,效率比传统空调高3倍以上。
再加上北极圈的天然低温,相当于给服务器住进了“避暑山庄”。
官方说废热还能给当地工厂供暖,听起来像是科技版“废物利用”,但实际效果可能得等冬天到了再看。
3. 欧洲数据主权的“最后一道防线”
欧盟最近几年天天喊着“数据主权”,要求AI训练的数据必须留在欧洲本土。
OpenAI这个项目选址挪威,虽然不是欧盟国家,但属于欧洲经济区(EEA):
既满足了“数据不过海”的监管要求,又能避开德国、法国等地严格的能耗审批。
这种“绕道打劫”的选址策略,有点像跨境电商绕开关税找保税仓。
二、10万块显卡到底有多大算力?拿游戏本“换算”一下
显卡数量多,不等于算力无限。
咱们不妨用游戏本做个类比:
一块英伟达H100显卡的价格大概相当于10台顶配MacBook Pro,算力大概是每秒10^18次浮点运算。
OpenAI计划部署的10万块显卡,理论算力相当于100万台顶配游戏本同时开动。
但实际用起来,这数字得打个大折扣。
1. 显卡堆得多,但“排队等活儿”也耗时间
显卡算力再强,也得靠软件调用。
就像菜市场摊主再多,顾客结账时还是得排长队。
目前主流AI训练框架(比如PyTorch)对超大规模集群的调度效率只有70%左右。
也就是说,10万块显卡的实际算力可能只有理论值的七成,剩下的三成全耗在“谁先谁后”的协调上。
2. 数据传输速度拖后腿,显卡再快也得“等文件”
显卡算得快,但数据从硬盘读到显存的速度跟不上,就像给火箭装自行车链条。
OpenAI这次用的液冷技术虽然能降体温,但解决不了数据传输的瓶颈。
举个例子:训练GPT-4级别的模型,10万块显卡可能需要同时从存储系统读取10TB的数据。
如果存储系统的带宽不够,显卡们只能集体“摸鱼”。
3. 软件适配才是大难题,不是所有AI模型都能“吃满”算力
显卡堆得多,但很多AI模型压根用不上这么多算力。
比如现在大热的AI绘画工具,单块显卡就能跑得动。
反倒是大模型训练(比如GPT-5)需要超大规模并行计算,但这类应用目前只占AI场景的5%不到。
换句话说,OpenAI这10万块显卡大部分时间可能在“兼职”跑小模型,算力利用率可能只有40%-50%。
三、环保承诺听着好听,但细节经不起细抠
OpenAI这次把环保口号喊得震天响:
“100%可再生能源”
“废热给工厂供暖”
“闭环液冷零排放”。
但仔细看看技术细节,你会发现这些承诺更像是“科技童话”,现实操作难度不小。
1. 液冷技术维护成本高,漏液风险比传统机房大10倍
闭环液冷听起来很酷,但实际运维难度比传统风冷高得多。
绝缘液体需要定期更换,管道密封要求近乎苛刻。
国内某头部云厂商曾测试过液冷机房,结果一年内漏液事故高达12次,维修成本是风冷机房的3倍。
OpenAI这次用的DLC(介电液)技术,每台服务器的维护成本可能比普通机房贵50%以上。
2. 废热供暖是理想,但挪威冬天太“鸡肋”
纳尔维克的冬季平均气温-5℃,确实需要供暖。
但数据中心的废热温度只有40-50℃,直接供暖的话得加装热泵提温,这又要多耗10%的电力。
更尴尬的是,挪威工业区集中供暖系统早就在水电站附近布局完毕,OpenAI这个“废热供暖”可能连小区供暖都覆盖不了,最后大概率沦为宣传PPT上的绿色指标。
3. 可再生能源不等于“零碳排放”
挪威水电占比高没错,但数据中心建设本身就会消耗大量钢铁水泥。
据估算,Stargate Norway项目的建设阶段将产生约50万吨碳排放,相当于3万辆燃油车一年的排放量。
OpenAI承诺的“100%可再生能源”只覆盖运营阶段,而基建阶段的碳排放至今没提解决方案:
这就像买电动车却用柴油发电机充电,环保效果大打折扣。
四、算力军备竞赛背后的“现实困境”
OpenAI这次砸钱建数据中心,表面上是为GPT-5做准备,但背后藏着三个不得不面对的现实问题:
算力成本飙升、AI模型效率停滞、数据隐私风险加剧。
1. 显卡价格暴涨,算力成本快赶上“天价药”
英伟达H100显卡的价格在过去一年涨了3倍,一块卡的价格能换两台iPhone 15 Pro Max。
OpenAI这10万块显卡的硬件成本就高达300-400亿美元,相当于马斯克的“孟菲斯超级集群”(10万块H100)的10倍规模。
但问题是,AI模型的训练效果并没有随着算力投入同步提升。
GPT-4比GPT-3.5多用了10倍算力,但实际性能提升只有15%-20%,这种边际效益递减的趋势,让算力军备竞赛越来越像“烧钱买心理安慰”。
2. 模型效率瓶颈难破,算力堆再多也没用
目前主流大模型的参数利用率只有30%-40%。
什么意思呢?
就像你雇了100个程序员写代码,结果60个人在摸鱼,30个人在改bug,真正写新功能的只有10个人。
OpenAI这次用的10万块显卡,可能有6万块在跑冗余计算,3万块在处理数据搬运,真正用来训练有效模型的可能不到1万块。
这种资源浪费,本质上是AI框架和算法的效率短板。
3. 数据隐私风险加剧,欧洲用户未必买账
挪威虽然不是欧盟,但属于欧洲经济区,同样受GDPR(通用数据保护条例)约束。
OpenAI这个数据中心一旦泄露用户数据,最高可能面临全球营收4%的罚款,2024年OpenAI营收约30亿美元,罚款超1亿美元。
更麻烦的是,欧洲用户对数据隐私的敏感度远超美国。
挪威本地开发者虽然用ChatGPT的人数翻了四倍,但真要他们把企业数据上传到OpenAI服务器,可能还得打个问号。
五、算力竞赛的终点,或许不在北极圈
Stargate Norway项目落地后,国内液冷概念股,比如高澜股份、英维克早盘集体高开,资本市场对算力基建的热情可见一斑。
但冷静想想,10万块显卡堆出来的数据中心,更像是一个“巨无霸充电宝”:
能解决短期算力饥渴,但治不了AI发展的“贫血症”。
真正的AI突破,可能藏在算法优化、芯片架构创新或者数据效率提升上。
比如最近谷歌开源的Mixture-of-Experts(MoE)技术,用1%的参数量就能达到GPT-3级别的效果;
再比如苹果M4芯片的NPU(神经网络处理器)效率,已经能用10瓦功耗跑动300亿参数模型。
这些“轻量级创新”,或许比堆显卡更能解决AI发展的根本矛盾。
至于OpenAI的北极圈计划,与其说它在建一个“算力圣地”,不如说是在给全球AI玩家打个样:
算力基建需要钱,但更需要克制。
毕竟,再大的数据中心,也装不下人类对AI的无限想象。
(全文完)
页:
[1]