返回

港湾观点 l 2025年9月:AI算力的世纪豪赌

东方港湾黄海平  2025-10-14

一、 OpenAI的底气

人们习惯于用静态的眼光看问题。这妨碍了我们理解和洞察时代的变化,不仅会在机会到来时熟视无睹,还会在风险暴露时置若罔闻。

就像过去两年AI的发展中,许多人都曾抱怨过模型的幻觉问题,而今年来推理能力的提升已经大幅地压低了模型幻觉程度;人们曾说模型的数据陈旧,更新太慢,后来AI搜索很快变得极其成熟,世界的变化对于模型来说几乎触手可及;人们也曾埋怨多模态功能又贵又不精准,而现在AI的图片与视频生成模型,已基本成为短视频博主新的生财之道。现在,人们还会一直埋汰AI没有实际落地应用,但ChatGPT今年超过100亿美元收入,FSD加速普及无人出租车业务,谷歌Meta等公司的广告收入增长开始提速,AI辅助编程的渗透率超过90%,大型云计算厂商的收入增速加快到近40%,软件公司的利润率整体逐步上抬,AI电商正在成为下一个新制高点,等等肉眼可见的显著变化,都不容我们选择性地忽视。

我们身边还会有人说AI用处不大,其中一个常见的观点是认为我们所熟知的软件世界,还没有因AI而出现收入爆发的迹象。我们在8月的观点《工匠智能》分析过,AI的能力发展正在从“通用智能”的提升,转入各个垂直领域“工匠智能”的提升。AI模型会在接下来的一段时间里,不断在各个类型的任务中,去积累使用软件工具完成任务的经验,形成数据飞轮来提升能力。这将对软件世界产生特别大的冲击。

上周OpenAI的开发者大会就开始展现这一趋势:ChatGPT开始在聊天任务中,直接调用各种软件的“小程序”来完成任务。例如使用Booking.com或Expedia来完成行程规划,使用Figma来创作网页或app的前端原型,使用Canva来制作海报,使用Zillow来查找各地的房产信息,等等。人类世界的软件工具使用及其基础上的商业化开发,是GPT接下来最重要的升级方向,即我们所说的“工匠智能”。这对传统软件来说,既可能是新流量的来源,也可能是被竞争对手或初创企业弯道超车的威胁;而对ChatGPT来说,则是搭建与安卓和IOS一样的操作系统,沉淀用户数据和粘性,不断提升收入的必经之路。这是我们去年10月份在《想象一个Agent的世界》一文中所描绘的世界。从此开始,一边是传统软件使用AI模型的API进行自我改造,一边是AI模型调用软件SDK来协同完成任务,既是双向奔赴,也是相互竞争,两者会让软件的世界出现天翻地覆的变化。

这大概就是OpenAI的底气所在。在此背景下,本月OpenAI上演了一出“合纵连横”的精彩大戏——这是一场关于AI算力的世纪豪赌,或许是一个超级巨头崛起的故事,也可能最后是曲终人散,杯盘狼藉。

我们需要用发展的眼光来审视这出大戏背后,所隐含的时代机会和风险;不能盲目乐观,无视风险,也不能裹足不前,错失机遇。

二、AI算力的世纪豪赌

在过往3个月的时间里,OpenAI接连与甲骨文、软银和Coweave三家公司签订了合作协议:这些新云将为OpenAI筹资搭建数据中心,OpenAI承诺采购其算力,以服务自己日渐庞大的用户群体,和高速增长的推理消耗量。这是OpenAI年初提出的“星际之门”计划的落地内容,其中甲骨文将承建5.5GW的数据中心,软银负责提供1.5GW,而Coreweave目前的合同将负责约1GW的建设工作。

与此同时,OpenAI还拉上英伟达和AMD,确保算力芯片的源头直采和稳定供货。这意味着OpenAI的星门计划,将绕过传统服务器ODM组装厂,以及三大传统云服务商,没有中间商赚差价,大大压低模型的算力成本。在获得两大芯片龙头的供货承诺的同时,OpenAI还在协议中得到了两大巨头的资金和股份支持:英伟达承诺OpenAI每采购1GW的芯片,向OpenAI投资100亿美元,上限1000亿美元,相当于用利润换股权(1GW数据中心的芯片利润大约100亿);AMD则承诺OpenAI每采购1GW芯片,免费送出1%的AMD股份期权,并以AMD股价为解锁条件。

自此,一个世纪联盟诞生了,这一5000亿美元10GW的世纪赌注,紧紧挂在GhatGPT的收入增速之上。

在这个联盟中,每家公司都有自己的小算盘。

对于OpenAI来说,可以将其业务扩展的财务压力和风险进行转移,通过多方联盟快速建设算力基建,推进研发速度,快速抢占市场份额,最后累积用户个性化数据以及工具使用经验,形成飞轮与粘性,抬高竞争壁垒。

对于英伟达来说,好处就更多了:首先,与模型厂的直接合作,绕过中间商(服务器ODM厂与云厂商)直达客户,将算力的成本直接压低到与Asic相差15%(Cantor测算),极大提升了竞争力。其次,通过投资拉拢OpenAI与XAI这北美模型三巨头中的两个,与谷歌模型与TPU的垂直体系相抗衡。同时也获得巨大的潜在财务回报。再者,通过扶持新云与旧云竞争,保持自己通用GPU的生态地位。最后,协议的安排并不会影响现金流量表,挣100亿投100亿,但在损益表上却是实实在在的新增收入利润。

对于AMD来说,看着大哥纵横捭阖,自己也必须争取市场份额,于是选择给OpenAI免费送股份,前提是OpenAI的联盟必须带上他,并且帮他推高股价。

而对于新云厂商来说,通过与OpenAI合作,直接锁定当前全球最大的算力需求,并由两大算力芯片龙头保证芯片产能供给,业务收入增长驶入了快车道。

这个联盟描绘了一个共同做大做强的美好愿景,但也存在着许多的风险点,不得不察。

首先,最大的风险就在于,这个看似永动机的联盟,所成立的前提完全依赖于ChatGPT收入持续高速地增长。否则一切承诺都是一纸空文,数据中心可能过度建设,算力的增长也会因此停滞。

其次,数据中心的折旧周期只有4~6年,很快会成为时代的淘汰品。这就要求OpenAI不仅要增长,而且要和时间赛跑。一旦速度稍微慢下来,或者发展进度延迟,已建成的数据中心算力芯片利用率下降,联盟中新云厂商的财务状况就会面临巨大挑战,动摇联盟的稳定性。

再者,该联盟与传统云厂投建数据中心的模式最大的不同,就是缺钱。传统云企有互联网业务的现金流支撑,至今可持续性和融资质量都相当不错。但自从微软退出了星际之门计划,OpenAI所依赖的新云的融资能力就有点捉襟见肘了。以最大的Oracle为例,其财报上每年200亿经营性现金流和资产端100亿的现金,看着虽然不错,但同时1000亿的有息负债和86%的总负债率,要继续为星门计划去扩张报表,就显得过于勉强了。更重要的是,这种过度的杠杆,是搭建在快速折旧的固定资产之上的,同时还要在快速变化的科技行业里,完全依赖于某一个巨头的持续高速发展。这种情景就像一场特殊的F1比赛:赛车手要举着100公斤的巨鼎,站在一辆由人工智能操控的跑车的车顶,在赛车道上狂奔向终点。稍有不慎,车毁人亡。而新云的这种“托管模式”,与传统云业务相比,似乎利润率又并不可观。这场赛事对于新云厂商并不公平友好,风险留给车手,奖励的大头却给了人工智能的厂商。

最后,这个联盟的每个成员,在各自负责的战线上,都要面对共同的劲敌——谷歌:OpenAI最大的敌人来自Gemini,英伟达和AMD的最大敌人来自Asic之王TPU,新云最希望超越的是北美排名第三但增速最快的谷歌云。以拼凑的“联盟”去进攻垂直一体化的“帝国”,我们在军事史上屡见不鲜,其结果多半堪忧。

这场世纪豪赌,结局如何?或许真被OpenAI闯出一片天地,成功跻身十万亿美元市值俱乐部,带着一众新云和芯片厂“鸡犬升天”;或许随着竞争加剧,OpenAI逐渐丧失领先优势,联盟中道奔殂,算力基础设施被挪为他用;又或许在过度乐观的估计下,超高的杠杆最终轰然倾覆,连同新兵老将一起被埋进了历史的废墟之中。

三、AI算力的泡沫论

但当我们将视野继续放大,会发现OpenAI这5年5000亿美元10GW数据中心的宏图野心,与黄仁勋在二季度业绩会上所提出的“2030年每年全球3万亿-4万亿的数据中心投资”比起来,就显得小巫见大巫了。如果当前AI行业龙头所组建的联盟都存在如此大的风险,这的确会令人怀疑,黄仁勋所描绘的更大的宏图,岂不是个更大的泡沫?

这场AI盛宴似乎在比拼着人们想象力的极限。我们曾多次用“人均拥有算力”的概念,去比较当前AI算力供给(人均0.5Tops)与AI应用需求(例如一辆Robotaxi需要至少2000Tops以上的算力)之间的鸿沟,但当黄仁勋说这中间的差距可能高达“十亿”倍时,还是有些令人难以想象。黄仁勋在本月的采访中,提出另一个思考角度可供参考:如果一名员工年薪10万,公司若每年为他花2万购买AI产品,可以让他的工作能力提升2-3倍,那将是非常划算的事。而全球100万亿的GDP,其中大概有50万亿是薪酬,如果劳动效率都能被AI赋能,每年多花20%的成本也划得过来。这相当于每年10万亿美元的Token智能开支,按50%的毛利算就是5万亿的成本,其中数据中心折旧大约占7成多,所以每年的数据中心折旧更新成本,大约就是4万亿美元。

但现实中,每年4万亿美元的投资,需要非常多的条件来支撑每年高达100GW的数据中心建设。100GW是什么概念?相当于整个英国的发电装机容量,可供2.2亿户家庭用电,以及每年100座大型核电站的落地;同时也对冷却用水,储能调峰,输配电都提出了各种极端要求。同时,假设到2030年全球GDP增长到接近140万亿美元(大概年增速加速到近5%),相当于每年数据中心投资总额占到全球GDP将近3%,这基本上与当年铁路投资巅峰时期占GDP高达4%的经济压力相当。因此担忧的人,确实可以列举出许许多多未来的限制因素。

算力泡沫的辩论,注定会横穿整个AI时代发展的大周期。未来4万亿的AI基础设施投资是不是泡沫,现在讨论似乎没有太大意义。但与之相比,当下的算力建设程度,就显然是“风起于青萍之末”。同时,在此轰轰烈烈的大周期展开的过程中,我们也要分清此轮AI算力基建周期,与过去其他技术基建周期所不同的特征。

1.png 

首先,我们要注意到一点:数据中心,尤其是算力芯片的折旧周期大约在4~6年,这与历史上各个时代的投资周期显著不同。历史上,无论是房地产行业、铁路运输行业还是互联网行业,其基础设施的投资折旧年限都长达30~50年。因此相比之下,算力芯片的投资更像是4年的期间费用,即Opex(Operational Expenditure)而非Capex(Capital Expenditure),相比“资产”属性更像是“消耗品”属性,需要更加持续地投入。

这就引发了两个推论:第一,相对于流动性极低的铁路光纤资产,流动性相对较强的算力芯片,更能应AI需求而弹性调整,可以“看菜下饭”;同时贬值也快,不易形成过剩产能。但也意味着已部署的算力中心,必须有持续的有效需求支撑,否则数据中心的破产速度会很快。第二,相对于折旧周期更长的非IT设备(电厂、冷却设施、储能调峰、厂房等折旧周期通常在10~40年),随着新一代算力芯片的效能提升,以及老一代产品的折旧报废,可以在原数据中心中更换芯片,提升整体AI算力的同时,降低非IT设施(如配电、用水、调峰等)的限制。

其次,很重要的另一点:数据中心的投资,所产生的云服务收入和盈利性都非常强,至少目前仍然如此,这对投资的持续性意义重大。这与历史上多个时代基础设施投资的公共属性显著不同,铁路和光纤的社会溢出效应很强,但本身的创收和盈利性都比较弱。在1872年铁路扩张的巅峰时期,铁路公司的资本开支约为铁路收入的2倍,铁路收入的增速大约22%,整体净利率从19世纪末相对的10%~15%,下降到20世纪初的3%~6%。而90年代的互联网泡沫中,电信公司的光纤投资巅峰时期也约为收入的2倍以上,而在互联网泡沫破灭之前,电信公司的增速仅约16%,全球平均运营商净利率在2000年约 6–8%。

相比之下,来自大型云厂商的数据中心的投资,不止提升云收入增速,还对其广告、软件、电商等业务的增收与降本产生了积极正贡献。25年2季度,三家云厂的资本支出总额占其云收入大约1.1倍,而占其总收入大约只有25%。云业务以及整体收入增速也在提速扩张期,谷歌和微软两家云增速已接近40%。在此高速投入期,云业务的利润率仍处于扩张期间,亚马逊的云业务运营利润率高达39%,谷歌云的利润率也逐季不断爬升至21%(微软云未单独披露)。

再者,这也引出了另一个重要的不同点:截至目前,由大型科技厂和主权国家主导的数据中心投资,其融资结构质量还相对健康,这与历史的各种资产泡沫高峰期形成显著区别。当年铁路投资高峰期,大约有一半是通过举债融资获得,其中不乏投机性散户。2008年的楼市泡沫也是如此,楼价是建立在次贷及其衍生的CDS身上。2000年电信公司也是堆积如山的债券。AI时代,至少目前来看,来自大企业的现金流以及各国政府的资金支持,还是会占据比较重要的比例。接下来可能会出现一些低质量资本,例如甲骨文、Coreweave等新云。例如高盛在报告中预计的,未来的数据中心资本开支,除了有一半来自大型云厂商自身的可持续现金流,还需要Private Credit这种低监管信用债券来提供近30%的融资,这将会大幅降低未来数据中心的融资质量。

2.png 

总而言之,相信AI算力的潜在需求空间,要远远大于当前的供应量(好几个数量级)。未来一年4万亿的AI基建投资或许有泡沫,但我们可以根据其特性,在泡沫逐渐发展的过程中,再去清晰地观察和评判。

四、 拥抱当下

历史不会简单地重复,但都拥有相同的韵律。OpenAI的世纪豪赌,只是这场AI算力泡沫发展过程中的一个韵脚,无论结局如何,可能都改变不了历史车轮的方向。当前AI算力泡沫还处于早期阶段,估值适中,给经济和产业带来的压力仍在宽松范围,越来越多的AI应用以不断翻倍的收入增速在成长,融资的结构也还十分健康。在当前的发展阶段,我们没理由不选择积极拥抱。

繁荣的终点必定是泡沫,市场噪声也永远会不绝于耳,股价的波动才是常态,但投资不能因噎废食。在充分理解风险的同时,要有选择性地承担和承受,这也是长期价值投资的困难之处,也是其魅力所在。

 

风险提示及免责声明市场有风险,投资需谨慎。在任何情况下,文章中的资讯仅供读者参考之用,文中提到的公司亦仅为阐述产业逻辑,所有内容均不带任何投资建议,读者不应单纯依靠本文而取代个人的独立判断。对于因使用、引用、参考本文内容而导致的投资损失、风险及纠纷的,东方港湾不负任何责任。