新闻 发表于 2025-10-3 17:55

AI基础设施|OpenAI锁定HBM产能,算力门槛抬高,基础建设者怎么破?

作者:微信文章
点击蓝字 关注我们

AI基础设施进入“HBM为王”阶段:OpenAI锁定DRAM/HBM产能,抬高算力门槛;开源GLM-4.6与Tinker API推动后训练与专业化模型量产;苹果押注AI眼镜、Sora 2冲榜带来分发迁移。

以下是今日AI行业内参:
🔹可作谈资的行业信息


苹果公司取消了更轻、更便宜的Vision Pro版本,转而专注于开发AI智能眼镜,以追赶Meta的Ray-Ban系列。苹果接受了AI眼镜是个人AI“理想外形”的判断,预计2027年发布的第一代产品将依赖语音和新的Siri升级提供AI功能,与iPhone连接。 [分发变化=个人AI载体转向] [硬件战略质变]

智谱AI发布了开源大模型GLM-4.6,该模型拥有200k长上下文窗口。它在一系列基准测试中超越了Claude Sonnet 4和DeepSeek-V3.2,标志着开源社区在推理、Agent和编码能力上达到了新的高性能水平。 [供给变化=开源权重可商用] [性能质变]

谷歌DeepMind的Dreamer 4智能体通过内部预测世界模型进行实时模拟训练,仅用离线数据就精通了Minecraft。它在测试中完成了16项任务中的14项(对手模型只完成5项),并且学习数据量比OpenAI的VPT智能体少100倍,预示着未来机器人和Agent的开发将更加安全和高效。 [拐点=模拟学习效率100x] [训练范式变化]

OpenAI的Sora 2社交应用在病毒式邀请发布后,迅速冲至Apple App Store排行榜的第三位,仅次于Google Gemini和ChatGPT。这一流量信号表明消费端对AI生成视频内容流(类似TikTok)的需求巨大,但公司内部也正因此陷入关于消费收入是否会损害非营利目标的争论。 [分发变化=AIGC社交流量]
🔸深度洞察价值观点

OpenAI基础设施押注使AI军备竞赛的核心转向了对DRAM供应链的绝对控制,大幅提高了新进者的进入成本。


事件:OpenAI的估值据称达到5000亿美元。更重要的是,该公司与三星电子和SK海力士签订了内存芯片供应协议,为其Stargate数据中心项目供货。该协议的目标是每月生产多达90万片DRAM晶圆,这可能使目前的全球产能翻倍。

洞察:大规模AI模型的训练和推理不仅受限于GPU算力,还极度依赖高带宽内存(HBM)等关键存储器。在GPU供应仍然紧张的情况下,OpenAI通过锁定DRAM/HBM的超级产能,是在为未来的计算需求和议价权进行战略性防御。这种对供应链的垂直控制,进一步加剧了AI基础设施建设的资源稀缺性,将行业竞争从模型性能扩展到基础硬件供应链的掌控。

影响了谁:
赢家:OpenAI(保障Stargate项目的算力供应,降低未来成本风险);三星和SK海力士(巨额订单,锁定产能)。 输家:所有需要自建大规模AI基础设施的科技巨头和AI初创公司。他们将面临更激烈的内存芯片资源竞争和更高的采购成本,加大了追赶OpenAI的难度。

行动建议(面向受影响最大的基础设施建设者):
行动1:即刻启动关键硬件(尤其是非GPU组件如高带宽内存/互联技术)的长期供应协议谈判,锁定价格和产能,寻求供应商多元化。 行动2:对内部模型架构进行审查,积极探索和采纳能显著减少DRAM依赖、优化内存效率的模型或训练方法,提高硬件使用率。 行动3:评估供应链风险,考虑基础设施的地域分散化策略,以应对单一巨头对全球关键资源的垄断影响。
通过抽象基础设施复杂性和优化后训练(Post-Training),行业正在加速向“超专业化AI模型”的生态系统转变。


事件:由前OpenAI CTO Mira Murati创立的Thinking Machines Lab推出了Tinker API。该API旨在帮助开发者轻松地对Llama、Qwen等开放权重模型进行微调,并支持监督学习和强化学习(RL)方法,用于解决数学、化学数据分析等专业应用。该服务通过抽象基础设施,降低了定制化模型的门槛。

洞察:Tinker的推出印证了行业共识:未来竞争的焦点不再是谁拥有最大的通用模型,而是谁能以最低的成本和最便捷的方式创建大量、高度专业的AI。该API通过支持大型MoE模型(如Qwen-235B)和提供低级API以进行高级后训练技术,将复杂的模型定制化能力普及化,让拥有垂直领域数据的企业能够轻易将领域知识转化为模型能力。

影响了谁:
赢家:拥有高质量、垂直领域数据集的专业应用开发者和研究机构(如普林斯顿、斯坦福等早期用户)。开放权重模型生态(应用场景扩大)。 输家:那些提供通用型、低效微调服务或仅依赖通用大模型解决专业问题的平台。

行动建议(面向受影响最大的垂直应用开发者):
行动1:利用Tinker等工具,对核心垂直业务数据进行即时测试,评估其相对于通用模型在特定任务(如科学推理、专业数学)上的性能提升比例。 行动2:将模型定制化能力集成到产品开发流程中,将模型微调视为核心迭代环节,以确保产品能够快速部署和实验高度专业化的模型版本。 行动3:积累和优化私有的、高质量的细分领域数据集,这是利用此类API实现模型竞争优势的唯一壁垒。

转发给正在做模型落地或自建算力的同事;收藏以备季度基础设施评审参考。
页: [1]
查看完整版本: AI基础设施|OpenAI锁定HBM产能,算力门槛抬高,基础建设者怎么破?