▶ 视频标题:《Dylan Patel on GPT-5’s Router Moment, GPUs vs TPUs, Monetization》
▶ 视频链接:https://www.youtube.com/watch?v=xWRPXY8vLY4
▶ 访谈对象:
Dylan Patel(迪伦·帕特尔)是SemiAnalysis的创始人兼首席执行官。SemiAnalysis是一家专注于半导体行业的深度分析和研究公司,以其对行业趋势、技术进步和市场动态的敏锐洞察而闻名。
a16z:是一家美国知名的风险投资公司,专注于投资科技领域的初创企业,尤其在互联网、软件、生物科技等领域有着广泛的投资布局。a16z以其对行业的深刻理解、对被投企业的强大支持以及丰富的资源网络而闻名。
访谈摘要:GPT-5、AI芯片竞赛及数据中心策略
本次访谈深入探讨了AI硬件、模型商业化、AI经济学以及科技巨头的战略布局等多个关键领域,主要观点包括:
- AI硬件格局与英伟达的主导地位:英伟达在AI硬件领域拥有显著优势,包括内存、工艺制程、上市速度、规模化生产以及与供应商的议价能力。竞争对手必须实现颠覆性飞跃才能与之匹敌。
- GPT-5的解读与AI模型商业化:GPT-5在基础性能上有所提升,但计算量并未大幅增加。OpenAI通过“路由器”(Router)机制优化成本,实现用户分层服务,并探索免费用户变现途径,例如通过导向购物、预订等增值服务。
- AI模型的经济学:模型成本与性能的权衡成为新的竞争焦点。用户使用量差异巨大,按使用量定价对消费者更公平,但对模型提供商而言,如何平衡成本与用户留存是一大挑战。
- AI产品的客户获取与粘性:IDE和CLI产品的集成为产品带来了客户粘性,但用户反馈和UI设计是留住客户的关键。模型的商品化趋势影响了价值捕获能力,AI公司需要探索新的价值捕获模式。
- AI价值创造与捕获的挑战:AI已创造出远超预期的价值,但价值捕获能力(如OpenAI、Anthropic的收入)与其创造的价值存在巨大差距。技术提供商面临着如何将创造的价值变现的挑战。
- 英伟达的增长与AI计算的未来:AI需求持续加速,训练端竞争激烈。约三分之一的AI芯片流向广告领域,但回报不佳的供应商可能难以为继。生成式AI有望提升广告效果和个性化水平。
- AI模型对开发者生产力的提升:AI工具(如GitHub Copilot)可以显著提高开发者生产力,潜在价值巨大,可能为全球GDP带来数万亿美元的增值。
- GPU市场的竞争与定制芯片:除了英伟达,谷歌(TPU)、亚马逊(Trainium)、Meta等公司也在大力发展定制芯片,这是对英伟达的重要威胁。AI技术的民主化(开源模型、开源软件)可能会削弱定制芯片的优势。
- AI加速器初创公司:大量资本涌入AI加速器初创公司,但它们面临巨大挑战,尤其是在与英伟达的生态系统和规模化生产能力竞争方面。软硬件协同设计和模型演进是其成功的关键。
- 数据中心建设的瓶颈: AI数据中心的建设受到电力供应、电网互联、输电、变电站以及熟练劳动力的制约。虽然AI电力消耗在总电量中占比不高,但其部署的地理位置和电力输送是关键挑战。GPU成本是数据中心的主要支出。
- 英特尔的地位与挑战: 英特尔在先进工艺技术上落后于台积电,但仍是美国重要的半导体制造力量。分拆业务可能会分散精力,CEO需要专注于提高设计效率和良率。其x86架构仍有盈利潜力。
- 对科技巨头的战略建议:
- OpenAI (Sam Altman): 立即推出通过信用卡信息进行代理行为的佣金抽取产品,将AI能力与购物、预订等服务结合,这是实现免费用户变现的关键。
- 英伟达 (Jensen Huang): 利用巨额现金储备加速对数据中心生态系统的投资,从而控制端到端的基础设施,而非仅仅局限于销售GPU。
- 谷歌 (Sergey Brin, Larry Page): 开放TPU(Komodo)的销售,开源更多XLA软件,并更积极地建设数据中心,以应对竞争对手的挑战,同时为Gemini的发展奠定基础。
- Meta (Mark Zuckerberg): 认识到模型和基础设施的紧迫性,更快地发布AI产品,并考虑发布与ChatGPT和Claude Code竞争的产品,将服务拓展至外部客户。
- 苹果 (Tim Cook): 投入巨额资金(500-1000亿美元)建设AI基础设施,否则将错失AI时代计算界面转变带来的机遇,Siri可能无法满足未来的需求。
- 微软: 重新审视对OpenAI的控制,解决内部模型项目的失败问题。Azure正面临被Oracle、CoreWeave、谷歌等超越的风险。公司需专注于产品开发,而非仅仅依赖B2B关系。
- xAI (Elon Musk): 专注于产品,避免草率的决策。尽管这些决策有时是其成功的关键,但也会损害公司吸引人才和项目的能力。
- 中国AI发展: 中国政府可能通过补贴支持AI基础设施建设,但资本支出规模仍是关键。即使芯片性能较低,充足的电力也能使其推进AI发展。
- AI计算的未来: AI将重塑计算格局,AI作为交互界面的发展将影响用户体验和控制权。硬件团队需要快速适应,否则可能落后。
访谈全文

引言与AI硬件格局
帕特尔: 英伟达的网络技术比你更强,他们的高性能内存更好,工艺制程更先进,产品上市速度更快,规模化生产能力更强。无论是与台积电、SK海力士在芯片和内存上的合作,还是与机架厂商、铜缆等所有供应商的谈判,他们都拥有更强的议价能力和更高的成本效益。所以,你不能简单地复制英伟达的模式。你必须在其他维度实现颠覆性的飞跃,做到比他们强悍五倍才行。
主持人: Dylan,欢迎来到我们的播客。我们邀请您很久了,您是个大忙人,但最终还是促成了这次访谈,真是太好了。
主持人: 我想说明一下为什么我们如此期待Dylan的到来,以及我们想讨论什么。Dylan,我认为你在报道AI硬件、AI半导体以及日益重要的数据中心领域方面做得非常出色。放眼当下,地球上最有价值的公司就是一家AI半导体公司,而迄今为止AI领域最大的IPO则是一家AI云公司。这正是风口所在。在任何淘金热的初期,真正赚钱的都是那些卖镐和铲子的人。我想我们现在就处在这个阶段。所以,非常高兴今天您能来到这里。
对GPT-5的反应:令人失望吗?
帕特尔: 非常棒,谢谢你们。很高兴能来聊聊我最喜欢的话题。
主持人: 太好了。或许我们可以从GPT-5开始。上周我们刚邀请了Christina和Isabella团队的一些研究员过来。您曾说它“令人失望”,能分享一下您的看法吗?或者说,您曾期待看到哪些功能?
帕特尔: 我认为这取决于你是哪一类用户。比如,如果你之前每月花费20美元或200美元订阅GPT服务,现在就无法再使用4.5了——在我看来,4.5在某些方面仍是更优秀的预训练模型。你也无法再使用需要平均思考约30秒的O3模型了。而GPT-5,即便在思考模式下,平均也只思考5到10秒。这是个有趣的现象。
基本上,GPT-5并没消耗更多算力。模型的基础性能确实有所提升,从4.0到5.0的进步是显著的。但是,智能曲线的规律是:投入的算力越多,模型就越强大。这要么通过更大的模型实现——但GPT-5并非如此,你可以看到它的大小和之前差不多;要么通过更长的思考时间。
OpenAI早期的思考模型——比如最初几代的o1和o3——它们会长时间思考,可以说,浪费了大量token。相比之下,Anthropic的思考模型,即使在思考模式下,实际思考时间也要少得多,却能获得与OpenAI相当甚至更好的结果。
所以,我认为OpenAI优化了很多东西。我记得曾问过o3一个很傻的问题:“猪肉是红肉还是白肉?”它思考了大约48秒。我当时就想:“你在干什么?直接告诉我答案就行了。”
好处是,GPT-5会思考得更少,即使你手动选择思考模式。更重要的是,它们引入了自动路由(Router)机制,可以决定:“嘿,是路由到常规模型?还是在超出速率限制时路由到迷你模型?亦或是路由到思考模式?”以及思考多久?但总的来说,思考模型会思考得更少,因此用户平均每次查询消耗的算力比以前少了。
主持人: 但更有趣的是,OpenAI现在能控制分配给你的算力了。如果系统处于高负载状态,他们或许会调整路由器,让模型思考得少一些。我不知道他们幕后具体在做什么,但现在网上有个段子,说他们所做的——当然这只是个段子,不是真的——就是把所有O3模型加上几个小模型,在前面放个路由器,然后以更低的混合成本提供服务。我认为这其中不无道理,这说明成本突然变得至关重要,而他们找到了调控成本的方法。
AI模型的商业化:成本、变现和路由器
帕特尔: 我认为,他们之所以能显著增加基础设施容量,部分原因就在于此。我自己就经常使用o3或4.5,而现在我被迫使用自动模式。有时它会给我o3级别的思考模型,但有时只是普通的基线模型,体验很差。但这对免费用户来说其实很有趣。免费用户以前几乎用不到思考模型。很多时候,他们只是打开网站提问。而现在,他们的问题有时也会被路由到更好的模型。当然,OpenAI也可以在必要时对他们进行“优雅降级”。
而且,从商业角度看,路由器指明了OpenAI的未来。看看其他模型公司,Anthropic完全专注于B2B,做API、代码等业务。OpenAI虽然也有这块业务,但他们大部分收入来自消费者订阅。然而,他们一直没有办法从海量的免费用户身上赚钱。在其他消费级应用中,免费用户通常通过广告来变现。但这种模式与AI并不兼容。AI是一个功能性助手,你不能为了植入广告而降低结果质量,横幅广告在AI界面里也行不通。那么,如何变现呢?
我认为,通过路由器,他们非常接近于找到变现方法了。随着新一系列应用的推出,比如Christina在Shopify上发布的购物助手,一切就豁然开朗了。如果用户提出一个低价值的查询,比如“天空为什么是蓝色的?”,直接路由到迷你模型就行,它能完美回答这类海量问题。但如果他们问:“我附近最好的酒驾律师是谁?”,突然间,这事关重大,你可能会想:“不管花多少钱,让ChatGPT告诉我最好的酒驾律师是谁。”虽然模型今天还做不到,但很快它就能联系该地区的律师,查询他们的判例,甚至搜索法庭文件,然后为你预订最好的律师。
主持人: 他们还能从中协商分成。
帕特尔: 是的,他们当然会从中抽成。这是一种更好的为免费用户变现的方式。就像Etsy,他们现在10%的流量来自ChatGPT,而OpenAI目前从中一无所获,但很快就会了。部分原因也是因为亚马逊屏蔽了ChatGPT。
我的意思是,你可以通过购物决策赚钱,无论是预订航班还是寻找商品。这样,你就可以对免费用户说:“没问题,我会为你调用最好的模型,甚至启用代理功能,不惜为你投入大量算力,因为我能从中赚钱。”但如果你的问题只是“帮我写作业”,那我只会给你一个还不错的模型,没必要为你消耗宝贵的算力。所以,这就是我认为OpenAI最终能够从免费用户身上赚钱的方式。我认为这是路由器最重要的意义。
AI的经济学:成本 vs. 性能
主持人: 这太有意思了。这似乎是我们第一次看到新模型发布时,在某种程度上,“成本”反而成了它的一个主要卖点。到目前为止,竞争焦点一直是“哪个模型最聪明?”“哪个模型的MMLU分数最高?”而现在,有些人每天要花八小时用模型编程,如果一个拥有超长上下文窗口的顶级模型一个月要花费数千美元,那成本就高得惊人了。因此,如何在成本与性能的“帕累托前沿”上取得最佳位置,已经成为衡量模型竞争力的新基准,而不再仅仅是性能本身。您同意吗?
帕特尔: 确实如此。比如,OpenAI宣布他们将大型用户的费率限制翻倍,并大幅增加了本次发布中提供的token数量。这实际上说明了这次发布更侧重于经济效益。
主持人: 而且这也意味着token……现在更便宜了,对吧?
帕特尔: 当然。我认为最有趣的是,你提到的成本问题,我们在代码领域也看到了同样的现象。比如,Cursor就不得不取消了代码生成的无限使用额度。最初,他们有一个价格高昂的无限量套餐,后来改为每周限制次数,现在又变成了按小时限制。我在Twitter上看到一个疯狂的帖子,有个人说为了最大限度利用额度,他调整了自己的作息,模仿起远洋水手——就像单人航海那样,不能连续睡觉,只能在航行间隙断断续续地小睡,以确保安全。
主持人: 趁着早上风平浪静的时候抓紧休息。
帕特尔: 对,他们无法一次性睡个整觉。所以,因为Anthropic设置了基于小时的速率限制,他干脆把睡眠打散,每天分好几次小睡,就为了把额度用满。Reddit上甚至还有一个排行榜,人们在上面攀比谁通过订阅消耗了更多的token。有个家伙一个月就花掉了30,000美元。
主持人: 那我得找个印度的开发者来结对编程了,我用白天,他用晚上,两个人一起把这个账号的额度用满。难道这就是未来吗?
帕特尔: 但很明显,人们正在钻这些负毛利订阅服务的空子。我想Anthropic从我的订阅里可能赚到了钱,因为我写的代码不够多,但肯定有很多重度用户是让它亏钱的。所以,正如你所说,这终究是个经济问题。
基于使用量的定价和产品粘性
主持人: 我认为,如果你转售的底层商品在你的成本结构中占了巨大比重,那么你最终必然会走向基于使用量的定价模式。
帕特尔: 那你觉得,这类代码辅助工具的用户粘性有多大?一旦开发者习惯了某个IDE或集成了某个CLI工具,他们还会轻易更换吗?
主持人:这起码是个十亿美元级别的问题,甚至可能说保守了。 你看,Andrej Karpathy有一张很精彩的幻灯片,他谈到构建代理系统时,其本质就是一个循环。这个循环的一半是模型在“思考”和尝试执行任务;另一半则是用户验证代理的行为是否正确,并提供反馈,将其引回正轨。因为模型不能无限地自主运行,最终还是需要人的介入。
循环的前半段由模型提供商主导,他们竞相打造最强大的模型。而后半段,我认为核心在于设计出最佳的用户界面,让用户能最高效地提供反馈。这正是价值所在,也是粘性的来源。 比如在代码编辑场景中,如何最直观地展示代码的改动?如何清晰地呈现这些改动的影响范围,涉及哪些文件?如何让简单的修改得到快速反馈,复杂的修改得到深度反馈?有些工具甚至会为你绘制出它们操作的图表。我认为这会是未来竞争的焦点,粘性就蕴含其中。至于粘性究竟有多大,这确实是个好问题。
帕特尔: 所以你的意思是,为了锁定客户,厂商应该坚持订阅制,而不是转向按量计费?
主持人: 我认为,不想按量付费的是客户。他们很难预测开销,而企业客户更希望预算是确定的,甚至愿意承诺一个相当高的固定支出,来避免按量计费带来的不确定性。而模型公司恰恰相反,他们希望按量计费。
主持人: 但对于个人消费者来说,按量计费又几乎是唯一的选择,因为使用量的差异太大了。像我们这样偶尔写代码的人,和全职开发者相比,用量可能有20倍的差距。如果成本很高,固定订阅就不现实了。反倒是对于企业,固定费用更可行,因为他们可以根据开发者团队的平均使用量来核算成本。
主持人: 企业可以预估一个开发者全天候编程的大致用量。
主持人: 但个人用户的配额就很难标准化了。
给Sam Altman的建议:OpenAI的盈利模式
主持人: 在结束OpenAI的话题前,我想问一个宏观问题:如果Sam Altman现在就坐在这里,对你说,“嘿,Dylan,只要能让OpenAI更有价值,我愿意听取你的任何建议”,你会告诉他什么?
帕特尔: 我会告诉他,立刻上线一个功能:让用户在ChatGPT里绑定信用卡,授权它作为代理去完成任何事情,并从中抽取佣金。比如购物,我们都知道OpenAI、Anthropic这些公司都在用亚马逊、Shopify、Etsy等电商网站和航空公司的预订系统来训练模型的真实世界交互能力。
这个功能应该能做到:“嘿,帮我整合日程表,我想周四飞到某个地方,还要确保不错过会议。好了,现在就订票!”它应该了解我喜欢过道还是靠窗的座位偏好,处理所有这些细节,然后从每笔交易中收取费用。一旦这个功能推出,他们就能赚得盆满钵满。
我很好奇他对此的看法,因为Sam Altman在过去半年里对广告的态度也发生了180度大转弯。他以前是坚决反对,现在却说“也许吧,或许有一种方式可以在不损害用户体验的前提下做广告。”
我认为,通过交易抽成,正是从海量免费用户身上实现盈利的绝佳方式。所以,我会就这一系列问题和他深入探讨。
主持人: 我们来聊聊英伟达(NVIDIA)。英伟达今年表现抢眼,股价涨幅接近70%。从现在来看,它有哪些可能的发展路径?你认为它会如何演变?
英伟达的增长与人工智能计算的未来
帕特尔: 这取决于你对增长持续性的判断。我们能看到很多公司,特别是代码工具公司,其营收增长迅猛,这说明需求端正在加速。
从训练端来看,竞争非常激烈。Meta和谷歌等公司正在显著加大投入。今年,OpenAI和Anthropic从谷歌、亚马逊、微软、CoreWeave和Oracle那里拿走了惊人的算力,这两家公司就占了大约30%的芯片供应。这就引出了一个问题:剩下的70%去哪了?其中很大一部分,约三分之一,流向了广告领域,比如字节跳动和Meta这样的公司。
但这就还剩下约三分之一的芯片。这部分的买家很多是经济效益不佳的服务商,他们能否持续增长或获得大规模融资还是个未知数。这也让我们回到了之前讨论的编码领域。如果你在本地或云端运行像Qwen Coder 3这样的模型,推理成本其实非常低。
所以关键问题依然是:增长还能持续多久?很显然,以OpenAI和Anthropic为代表的大模型实验室,其支出正在飞速增长。与广告相关的第二部分也会增长,尽管速度不会那么迅猛。但生成式AI无疑会给广告业带来一个转折点。Meta已经在进行大量实验,我相信,一旦个性化广告成为常态,广告效果将有巨大提升。当我看到一个为我量身定制的广告时,我点击和购买的可能性自然会更高。
主持人: 这太有趣了。但这种增长能扩展到什么程度?我们到底在这里创造了多少价值,足以支撑长期的增长?如果我们只看AI软件开发,目前我们看到,传统企业直接使用GitHub Copilot,生产力大约能提升15%。
主持人: 我认为潜力远不止于此。
主持人: 是的,15%太保守了。我跟很多企业交流过,这只是基础水平。而且,说真的,GitHub Copilot的体验其实相当糟糕。看看营收增长图就知道了,太搞笑了。
帕特尔: 是的,看看营收图,Claude Code在三个月内就超过了它。像Cursor、Replit,甚至将来的Cognition,都会轻松超越GitHub Copilot。你简直是在见证历史。
主持人: 好,那我们假设能把开发者生产力翻倍,也就是提升100%。全球大约有3000万开发者,假设每位开发者每年创造10万美元的价值——这个数字在美国可能偏低,但在全球范围看是偏高的。这样算下来,就是3万亿美元的增量GDP。理论上,这3万亿美元的价值都可以投入到GPU上,因为算力是核心。 这还仅仅是编码模型,忽略了所有其他用例。所以,理论上讲,AI创造的价值可以持续支持这种增长。但如何转化为产业现实,就要复杂得多了。
帕特尔: 我认为AI创造的价值已经超出了所有人的预期。那个著名的“几千亿美元”市场规模的问题,现在已经变成了“六千亿美元”,相信红杉很快就会抛出“万亿美元”的说法。这背后有现实支撑,但人们忽略了一点:如今一年的基础设施投入,可能需要未来五年的收入来覆盖,而且收入曲线是动态变化的,而非线性增长。
重点是,AI创造的价值已经远超其成本,但症结在于价值捕获。 我坚信,OpenAI通过ChatGPT创造的全球价值,他们自己捕获到的连10%都不到。Anthropic、Cursor等其他公司也是如此。价值捕获的模式存在严重缺陷。
就拿我们公司内部来说,仅用四名开发人员,我们就在自动化方面取得了惊人成就。我们花在Gemini API上的钱少得可笑,却用它一丝不苟地审查全球每个数据中心的许可和监管文件。我们拍摄数据中心的卫星照片,用AI标记数据集,识别发电机型号、冷却塔类型,跟踪施工进度和变电站建设。所有这些自动化都归功于生成式AI,而我们只用了极少的开发人员。
我通过销售这些数据和提供咨询服务获得了巨大的价值,但创造这些技术的公司却分文未得。这里存在一个巨大的价值捕获鸿沟,价值创造远远领先于价值捕获。随着GPT-5和更多开源模型的出现,这些公司捕获价值将越来越难,很多时候,他们在推理业务上的毛利率甚至低于50%。
主持人: 所以你的意思是,AI模型正在被商品化,导致价值难以捕获,因此我们应该调低对GPU支出的预期?
帕特尔: 不完全是。我认为在价值捕获上依然大有可为,比如我提到的广告业务,就是一个巨大的价值捕获机会。
主持人: 但这需要在我们看到巨额收入之前发生。
帕特尔: 不,我的意思是,还有大量的资本尚未入场。相比今年,超大规模云服务商明年的资本支出仍能增长20%到30%。此外,像CoreWeave和Oracle这样的公司,凭借其在资本市场的融资能力,增长速度可能远超这个数字。
再往深看,全球最大的基础设施基金,如Brookfield和Blackstone,正将目光转向AI基础设施。还有像阿布扎比的G42、挪威主权基金、新加坡的GIC等,这些主权财富基金几乎还未开始在AI领域下注。我认为有海量的增量资本可以涌入,而这些资本的投入,在初期不完全是由短期经济效益驱动的。纯粹看财务报表的投资只能增长到一定程度,但许多公司投资是基于对未来的信念。我相信你我都坚信投资AI基础设施终将带来回报,尽管目前还没有一个100%确凿的财务模型来证明这一点。
定制化芯片:对英伟达的威胁
主持人: 定制化芯片对英伟达的威胁有多大?
帕特尔: 我认为这是最关键的问题。看看谷歌、亚马逊,特别是Meta的订单,就会发现他们对定制芯片的投入远超微软。虽然微软的定制芯片不算亮眼,但其他三家——谷歌、亚马逊和Meta——在过去一年里都在大规模增加订单。亚马逊正在生产数百万颗Trainium芯片,谷歌也在生产数百万颗TPU。TPU的利用率显然是100%,Trainium虽然还没达到这个水平,但我相信亚马逊最终会解决这个问题,而Anthropic也会助推这一进程。
所以,对英伟达最大的威胁在于,巨头们正在找到更广泛使用自研芯片的方法。这一点至关重要,因为如果AI能力最终集中在少数几个玩家手中,那么定制芯片的性价比优势就会凸显出来。 这还没算上OpenAI的芯片团队和其他潜在的入局者。如果AI的集中化趋势持续下去,定制芯片的胜算就会越来越大。然而,如果格局发生变化,由于中国开源模型以及来自 NVIDIA 和其他厂商的各种开源软件库的普及,AI 技术变得更加分散,部署成本可能会大幅下降。在这种情况下,定制芯片的竞争优势可能会减弱,从而导致 AI 硬件和软件市场更加复杂。
主持人: 谷歌的 TPU 能够与 NVIDIA 竞争,理论上它完全可以在公开市场上销售。如今 NVIDIA 的市值已经超过了谷歌,谷歌难道不应该开始向所有人销售他们的芯片吗?这理论上能让他们获得更高的市值。
帕特尔: 我完全同意。我相信谷歌内部已经讨论过这个问题。但这需要对公司文化,以及谷歌云、TPU 团队、JAX 和 XLA 软件团队的运作方式进行一次彻底的重组。我坚信他们有能力做到,但这需要他们下定决心进行调整。所以我认为,谷歌绝对应该对外销售 TPU,不只是以云服务的形式出租算力,而是直接销售实体芯片。
主持人: 一个理论上比主营业务更具价值潜力的副业,这确实耐人寻味。
主持人: 甚至可能超过你的核心业务,尤其是考虑到搜索业务的潜在衰退。
帕特尔: 是的,但如果你去问谢尔盖·布林,“销售芯片和服务器机架,与谷歌云或 Gemini 相比,哪个更有价值?”他会告诉你:“毫无疑问,Gemini 的价值将远超前者,只是时机未到。”
所以,这又回到了集中化的问题上。如果 AI 客户高度集中,NVIDIA 就不会是全球市值最高的公司。
但如果市场变得越来越分散——这正是我们看到的趋势,因为开源模型越来越优秀,部署也越来越简单——那么,NVIDIA 很可能会在很长一段时间内继续保持全球市值第一的宝座。
主持人: 回顾历史,“软件吞噬世界”在大多数市场中都已应验。在互联网早期,思科曾一度是全球市值最高的公司,但如今早已风光不再。最终是那些在硬件之上构建服务的公司——比如谷歌、亚马逊或 Meta——超越了它。
帕特尔: 这正是 NVIDIA 大力投入软件库的原因,他们试图将推理(Inference)服务商品化。我记得你们甚至没有投资任何推理 API 提供商,对吗?我说的是纯粹的 API 提供商。我记得曾和你们团队的 Rajko 或其他人聊过,问为什么你们不投像 Together AI 或 Fireworks AI 这样的公司。当时的论点是,你们认为单纯提供模型 API、而不自己开发模型的服务,最终会趋于商品化。
主持人: 没错,我们在 Stable Diffusion 生态中投资了一些类似的公司,它们构建的模型往往比大语言模型(LLM)更复杂。
帕特尔: 是的。但你们没有投资 Base10 或其他类似的 API 公司,因为你们团队中负责基础设施的人认为,由于 NVIDIA 正在开发的软件,以及 vLLM 和 SGLang(源自伯克利,并已形成生态)等开源项目的普及,这个领域将被商品化。这意味着 API 提供商的价值不会太高,对吧?这或许就是你们的论点。我认为这和我们之前讨论的整个问题是相关的。
芯片初创公司热潮
主持人: 换个话题,你怎么看那些芯片初创公司?大量的资本正涌入这个领域,投资额可能已达数十亿美元。
帕特尔: 没错。像 Etched、Revos、Matroid 等许多公司,在还没有拿出任何实际芯片产品的情况下,就已经获得了巨额融资。过去,芯片公司至少要先推出一款产品,才能获得大额融资。但像 Etched 和 Revos 这样,产品还没问世就筹集到巨资,确实令人瞩目。
这恰恰说明了芯片开发,尤其是 AI 加速器,是一个资本极其密集的行业,牵涉到方方面面。过去几年新成立的 AI 加速器公司至少有十几家,甚至更多。
同时,一些老牌公司也在持续融资,比如 Groq、Cerebras、SambaNova 和 Tenstorrent 依然活跃。GraphCore 被软银收购后,软银也在持续投入。巨额资本正涌入这个赛道,试图挑战 NVIDIA 的霸主地位,但这极具挑战性。如何击败 NVIDIA?我认为那些超大规模云厂商(Hyperscalers)是幸运的,因为他们可以采取和 NVIDIA 类似的策略。
主持人: 因为他们本身就是自己最大的客户。
帕特尔: 没错,他们单靠优化供应链就能取胜。对于像 Meta 的推荐系统这类特定工作负载,他们可以做得更专业、更出色。但总的来说,他们的策略是:“我们针对同样的工作负载,通过简化或内部化供应链来压缩成本,这就足够了。”
但对于其他初创公司而言,他们没有这样的内部客户。因此,他们面临一个困境:要么依赖某个定制芯片供应商,但这会增加成本、压缩利润;要么尝试自己包揽一切。
但后者极其困难。你需要负责软件设计、芯片设计、构建各种 IP,还要管理从芯片到机架的整个供应链。这最终需要一个规模庞大的团队才能实现。
归根结底,NVIDIA 的毛利率高达 75%,而 AMD 销售 GPU 的毛利率只有 50% 左右。AMD 在工程上已经非常出色,但仍难以超越 NVIDIA。即便如此,为了达到同等性能,AMD 的芯片也需要更大的面积和更多的内存,还必须降价销售,导致利润空间被严重挤压。
主持人: 从历史来看,市场新进入者通常不是靠对现有产品的微小改进取胜,而是抓住颠覆性的技术飞跃,即采用完全不同的方法和技术。这在芯片领域可能实现吗?某种程度上,Transformer 模型的成功,部分原因就是它与 GPU 架构的完美契合。相比之下,循环神经网络(RNN)虽然性能相近,但在 GPU 上的运行效率极低。所以,我们是不是选择了一种与硬件架构高度绑定的模型?这是否让后来者难以找到颠覆的机会?
帕特尔: 这就是软硬件协同设计的力量。以神经形态计算为例,虽然理论上前景广阔、能效极高,但它缺乏相应的硬件和软件生态。需要成千上万的顶尖 AI 人才,在硬件、软件和模型层面全力投入,才有可能验证这条路是否走得通。所以,像 Groq、Cerebras、SambaNova 这些公司,他们的芯片都是基于当时最流行的模型架构设计的,结果就是对这些模型过度优化。他们做出了一些取舍,比如在芯片上集成了更多的内存。而 NVIDIA 的策略是:“我们不这么做,但我们速度更快。”
帕特尔: 相比之下,NVIDIA 芯片上的 SRAM 要少得多。
主持人: 那些初创公司选择了片上 SRAM 而非片外 DRAM,但这也意味着他们能配置的 DRAM 总量更少,这本身就是一种权衡。
帕特尔: 没错,他们赌的是更多的片上 SRAM。但因为片上 SRAM 占用了宝贵的芯片面积,留给计算单元的空间就变少了。结果,随着模型规模的爆炸式增长,他们赌输了。我毫不怀疑,对于某些特定类型的模型,Cerebras、Groq 甚至特斯拉的 Dojo 芯片会比 NVIDIA 的产品表现得更好,因为它们是为此量身定做的。
但是问题是,模型在不断进化。现在连计算机视觉任务都在用 Vision Transformer。你为某个特定模型做了极致优化,结果却发现自己陷入了困境。想象一下,今天一家新的 AI 加速器公司决定:“我们要为 Transformer 专门优化!”他们设计时会假设 Transformer 是某种特定尺寸的密集模型,比如隐藏层维度 8K,然后基于此设计一个巨大的并行处理阵列。但结果呢?你去看看 DeepSeek 或其他前沿实验室的研究,会发现模型架构正在变化,需要的是大量小型矩阵乘法,而不是单一的巨型矩阵乘法。最终,你精心设计的芯片反而效率不高了。
软件总是在朝着最适合 NVIDIA 硬件的方向发展。甚至谷歌也一样,他们开源的 Gemma 模型在架构上就做出了不同的选择,因为 TPU 的硬件形态与 GPU 不同。但有趣的是,GPU 和 TPU 并没有想象中那么不同。如果你看 NVIDIA 的 Blackwell 架构和最新的 TPU,会发现它们的设计理念正在趋同。
要挑战 NVIDIA,你不能只靠供应链优势,因为你没有超大规模云厂商那样的自有客户。你必须另辟蹊径,在某个特定工作负载上,实现 5 倍于 NVIDIA 的硬件效率。
然后,你还得祈祷这个工作负载不会过时。 因为 NVIDIA 也在不断迭代架构,他们每隔一两年就会向前迈出一大步。而你,则必须选择一个完全不同的方向,然后赌模型会停留在你优化的那个点上。
你之所以需要 5 倍的优势,是因为 NVIDIA 会在供应链效率、新工艺节点和新内存技术的应用速度上全面超越你。看看 AMD,他们率先用上了更先进的工艺,拥有更高密度的 HBM,采用了 3D 堆叠技术——所有这些理论上领先的供应链技术,但他们仍然输了。
这背后依然是软件生态的差距。而且,NVIDIA 的网络互连方案(NVLink)会比你的更好,他们能拿到更好的 HBM,用上更先进的工艺节点,产品上市更快,产能爬坡也更快。
他们在与台积电、SK 海力士等供应商谈判时,无论是在内存、硅片,还是机架、铜缆等所有环节,都能拿到更好的价格。所以,你的产品必须在性能上好上 5 倍,才能抵消掉他们的成本优势。
主持人: 但说句公道话,只要市场上出现一个可行的竞争者,哪怕只是略具成本竞争力,许多 NVIDIA 的大客户也会立刻分一部分订单过去,仅仅是为了培养一个备选方案,避免一家独大。
帕特尔: 这就是今天的 AMD。
主持人: 是的,微软就是这么做的。但 AMD 获得的市场份额依然相当有限,不是吗?
帕特尔: Meta 确实在采购 AMD 的芯片。微软也曾大量采购,但后来又停了,因为他们发现,即便 AMD 能提供备选方案的战略价值,其产品的每瓦性能最终还是比不上 NVIDIA。AMD 拥有庞大的软件团队,在我提到的所有方面都具备一定的竞争力,但依然不够。
所以,你不能简单地模仿 NVIDIA,或者像 AMD 那样试图在执行上做得更好。你必须实现技术上的飞跃。然而,芯片的设计周期太长,等你的产品问世,模型可能已经变了。而那些模型研究者们,他们思考的永远是:“下一代 GPU 和 TPU 会是什么样?好吧,让我们为之优化。”
AI 的研究就像一棵技术树。也许神经形态计算是理论上最优的路径,但几乎没有人在上面投入,因为大家都在沿着当前主流的技术路径前进。如果你想另起炉灶,从头开始点亮一棵新的技术树,会发现根本走不通。当主流技术朝着一个方向演进,而你却在另一条分支上时,你的处境就非常艰难了。
帕特尔: 因为供应链的劣势,你 5 倍的理论性能优势,到手可能只剩 2.5 倍。如果你真的构成了威胁,NVIDIA 只要稍微压缩一下利润,这 2.5 倍的优势可能就只剩下 50%。再加上软件生态的差距,最终你那惊人的 5 倍优势,可能只体现为 50% 的实际提升。这就是挑战如此艰巨的原因。
主持人: 别忘了还有国防供应链。
主持人: 那么中国是在限制人工智能的电力供应吗?
帕特尔: 我不认为中国在限制电力本身。问题在于,只要他们愿意投资,明年中国公司的资本支出(capex)增长比例将远高于美国公司。当然,从绝对金额上看,美国在人工智能上的投入仍然更多。但从增长百分比来看,中国公司会更快。
然而,由于这些国产或特供芯片的性能较差,导致在同等AI产出(如tokens)上的资金花费更低。所以,瓶颈不在电力,而在于资本——至少目前是这样。当然,如果中国愿意,他们可以投入更多的资本。
他们完全可以将类似的策略应用到人工智能生态系统上。要知道,Meta的资本支出约为600亿美元,谷歌约为800亿美元,中国完全有能力为一项事业投入更多资金,只是他们还没下定决心。反观美国,我们的建设则受限于电力。谷歌和Meta都有大量的TPU和GPU已经买好,却因为数据中心尚未通电而闲置。
我们之前报道过Meta如何建造那些像帐篷一样的临时数据中心。这难道不是一个巨大的机会吗?
主持人: 这也与他们不愿将芯片出售给更广泛的生态系统有关。我的意思是,如果他们只想把芯片用在自己的数据中心,而他们的超大规模客户又无法足够快地扩建数据中心,那自然会限制他们的发展。但如果我们向公开市场开放供应,我们是否仍然会受到限制?
帕特尔: 当然会。像 Core Weave 这样的公司之所以价值连城,就是因为他们建设基础设施的速度极快。我认为他们的软件很不错,但大部分客户都是裸机客户,他们主要负责更换损坏的GPU和网络设备。他们采购更积极,而且会去任何地方。
帕特尔: 他们有能力做到这一点。是的,他们会去。这也很重要。他们会去,因为这能使生态系统更加多元化,对英伟达也更有利。
主持人: 我们在印度工作过,我完全理解他当时的想法。
帕特尔: 所以,重点是像 Core Weave 这样的公司并不挑剔。他们会说:“哦,一个加密货币数据中心?我来把它改造成AI数据中心。”他们花了100亿美元收购了一家几年前还只值20亿美元的加密货币挖矿公司。这并非因为比特币挖矿业务增长了,而是因为这家公司拥有现成的电力和数据中心。无论哪里有条件,人们都在争相建设数据中心。Core Weave 和甲骨文(Oracle)都在朝这个方向发展。实际上,就在今天,谷歌刚刚收购了加密货币挖矿公司 TerraWulf 8% 的股份。
主持人: 是的,因为他们要进军加密货币挖矿。
帕特尔: 不,是因为他们需要电力。他们急需电力。所有超大规模厂商都把可持续发展的承诺抛在脑后,因为他们需要尽快获得电力。他们正在采取一些需要更长时间才能见效的措施,但是……
即使你不在自建的数据中心里部署,公开市场上也存在诸多挑战。供应存在缺口,这严重限制了美国的芯片部署。也许 Core Weave 或甲骨文这些公司可以做得快一些,但总体上美国的建设仍然受到严重制约。
要知道资本已经花出去了。芯片占集群成本的60%到80%,具体取决于你买的是什么芯片。所以,这些公司已经买好了芯片,但由于数据中心还没准备好,只能让它们闲置。
这种情况适用于谷歌、微软、Meta等许多公司。
主持人: 我感觉在美国建设电力基础设施真的非常困难。
帕特尔: 电力、电网并网、输电、变电站,所有这些都是问题。比如在德州,如果你愿意做一名差旅电工或电气承包商,你的收入简直能媲美石油行业的工资。过去,如果你身体好,在西德州可以赚到六位数,但谁愿意去那种地方?现在,你可以在离达拉斯不远的一个宜居小镇上,参与数据中心的建设。你可以在数据中心内部接线,也可以从事输电工作,现在的工资比几年前几乎翻了一番。
劳动力也是一个挑战。而中国没有这些问题,他们只是尚未投入相应的资本。当然,资本也是一个问题,尤其是考虑到投入的规模。例如,英伟达今年的收入预计将超过2000亿美元,明年预计将超过3000亿美元。谷歌预计将在TPU数据中心上花费约500亿美元。
此外,亚马逊也计划在Trainium数据中心上进行巨额投资。这些支出的规模正在迅速接近国家级别。更关键的是,如何高效地决定在何处、以何种方式分配这些资金,以确保成本效益。
主持人: 那么,数据中心的终极形态会是怎样?我们需要更多的电力和冷却。最终所有数据中心都会建在核反应堆旁边,或者在太阳能充足、靠近深海以便用海水冷却的地方吗?
数据中心的电力和冷却:下一个瓶颈
帕特尔: 我认为数据中心的物理冷却不是大问题。有一种说法是,人工智能消耗了太多电力。但事实并非如此。你知道吗?种植苜蓿消耗的水比人工智能数据中心多100倍,即使到本世纪末也是如此,而苜蓿的经济价值非常低。所以……冷却成本不像大家想象的那么高。有人尝试在海底建数据中心以降低冷却成本,但这毫无意义。那样最多只能节省5-10%的成本,可一旦需要维护,你就麻烦大了。电力也是同样的道理。我们总在谈论电力,但它其实并不昂贵,只是难以建设。你必须找到合适的地点、合适的空间,并将其转换为芯片所需的电压。
主持人: 所以,问题不在于电力的总量,而在于它的位置和输送方式。 当然,总量也很重要。就全球总能源消耗而言,人工智能的占比还很小,远不到10%。
帕特尔: 即使到本世纪末,数据中心在美国电力消耗中的占比达到10%,这个数字也……
主持人: 是占我们电力的10%。但在总能源消耗中的比例就更小了。
帕特尔: 是的,因为你还要考虑……
主持人: 转向电动汽车对电网的影响,可能比建设所有人工智能数据中心带来的影响更大。
帕特尔: 没错。而且在欧洲等其他地方,这个数字增长得没那么快。我认为我们需要建设更多的电力设施,但这并非一个遥不可及的目标,只是正确地实施起来很困难。是的,我同意。
再说电力的成本,你去看看那些采购协议。尽管电价从每千瓦时几美分飙升到10美分,但对于大规模采购而言,这些价格仍然……当你考虑一个集群的总拥有成本时,GPU、网络连接等所有这些加起来,远远超过了电力成本。
冷却也是一样。电力占多大比例?
主持人: 如果我建一个按四年摊销的GPU数据中心,电力成本占多大比例?
帕特尔: 如果你建一个Blackwell GPU数据中心,80%的成本都是资本支出,包括GPU采购、网络设备、数据中心实体改造和电力转换设备。所有这些加起来大约占总成本的80%。
剩下的20%才是你的局域网、电力、冷却、冷却塔、备用电源、发电机以及所有这些额外的基础设施。这部分成本相对较小,所以即使在这部分多花10%或50%,也无关紧要。归根结底,最昂贵的组件是GPU和基础设施的资本投资。
这就是为什么像埃隆·马斯克做出的一些决策,在外人看来可能很愚蠢。他们在数据中心外部的备用发电机和移动式冷却器上花费了更多的钱,而不是选择更具成本效益的方案。然而,这笔投资使数据中心提前三个月投入使用。
从总拥有成本来看,让芯片提前三个月运转所创造的价值,远超为绕开基建瓶颈付出的额外成本。 芯片的性能和上市时间至关重要,这使得这项投资虽显昂贵,却是明智的财务决策。毕竟,GPU一旦闲置,价值就会飞速贬损。
主持人: 仅仅通过绕开电网、并网和任何与公共事业相关的手续。
主持人: 完全正确。你对英特尔有什么看法?英特尔的未来会怎样?
帕特尔: 我认为世界,或者说美国,需要英特尔。我们需要一个国家级的芯片代工厂。我认为全世界都需要英特尔,因为根据业内一些客户在英特尔和三星之间测试芯片的经验来看,三星在先进制程的开发上比英特尔做得更差。
我相信行业普遍认为,英特尔在两纳米级别的工艺技术上比三星更先进,但两者都远远落后于台积电。从某种程度上说,台积电是事实上的垄断者。人们总问的第一个问题是:为什么台积电不赚更多的钱?为什么他们明年只根据产品提价3%到10%?
台积电是垄断者。他们完全可以大幅提价,但他们是厚道的台湾人,而不是贪婪的美国资本家。如果台积电由美国人拥有或管理——尽管其大部分所有权确实是美国人在纽交所持有的股票——他们早就把价格提得更高了。
所以,我们面临一个非常棘手的局面:全世界所有领先的半导体,甚至大部分落后制程的生产,都由一个岛屿控制着。必须采取行动。英特尔虽然落后,但并非遥不可及。如果岛屿宕机,英特尔将一夜之间拥有全球最顶尖的芯片技术——尽管它目前在成本上不占优势。
主持人: 你认为英特尔只有保持为一家完整的公司,才能具有竞争力吗?
帕特尔: 我认为分拆的过程会耗费高管太多的时间和精力,公司在此之前可能就倒闭了。这才是最大的挑战。我认为英特尔应该独立运营,但是要正确地分拆公司,并投入所有必要的高管精力,这简直是天方夜谭。
英特尔在人工智能时代的地位
相反,英特尔需要的是像陈立宏这样的首席执行官。围绕他有很多争议,因为他是史上最伟大的半导体投资人之一,投资了许多不同的公司。例如,他曾是中芯国际(SMIC)的董事会成员,而中芯国际被誉为“中国的台积电”。他的这段经历引发了巨大争议,因为他也是中国一些最大半导体设备公司的早期投资者。他在认识到世界多极化的潜力后,做出了这些明智的投资。
现在,有些人对帕特·基辛格(Pat Gelsinger)的过往决策感到不满,但更重要的是要看到,他有能力洞察公司症结并深谙供应链。他需要集中精力修复公司,而不是把时间浪费在分拆上,否则将无暇解决英特尔面临的根本问题。
英特尔的问题在于,一款芯片从设计到出货需要五到六年,甚至更久。当他们完成芯片设计并送往晶圆厂制造后,返回的芯片通常需要反复修改14次,而业内顶尖公司一到三次就能搞定,并且能在短短三年内推出一款上市产品。
主持人: 但是,如果你看看现在的英特尔,他们在人工智能领域仍然没有一款具备竞争力的产品,而且看起来短期内也不会有,对吧?那么,这对他们的产品线意味着什么?我的意思是,他们在CPU方面依然做得很好,但却没有优秀的人工智能芯片。作为一家独立的芯片公司,这是一种可持续的长期定位吗?
帕特尔: IBM至今每次推出大型机,赚的钱都比其他任何产品都多。所以,x86架构并没有消亡,只是你无法指望高增长率,但你完全可以把它经营成一家利润丰厚的公司。我认为个人电脑业务也是如此,尽管市场存在一些动荡,比如ARM的入侵和AMD的竞争。然而,我相信,即便公司裁员到现有规模的三分之一或一半,它依然能成为一项盈利能力极强的业务。
要想修复英特尔,基辛格必须双管齐下,同时整顿设计部门和团队。他应该大刀阔斧地裁员,但要留住顶尖人才,确保他们能快速高效地完成设计。英特尔必须将芯片从设计到推出的周期,从五年半压缩到两到三年,这是其设计部门实现盈利的唯一出路。
在制造方面,他必须采取同样的雷霆手段。公司冗员严重,例如,一位工厂自动化负责人就被认为是问题的根源。我曾明确告诉基辛格这个人的情况,并指出由于层级臃肿,他可能从未与此人交谈过。尽管隔了四级,基辛格还是亲自去找那人谈话,很快,那人就被解雇了。他必须辨别良莠,并果断采取行动。
英特尔的大部分团队在过去20年里,在生产和工艺技术方面一直领先世界。然而,公司内部积累了大量亟待解决的低效问题。他不能把时间浪费在重组分拆上;尽管我认为分拆或许有利,但他根本没有这个时间。如果设计部门不能在人工智能领域取得突破或创造收入,那么晶圆厂就必须具备强大的竞争力。但问题是,还没等到那一天,晶圆厂自己可能就先撑不住了。
因此,他必须设法获得资本,并清除现有的低效问题。提高良率、确保产品更快出货,这些都是至关重要的问题。只有解决了所有这些,英特尔才能重拾竞争力。
主持人: 我认为这个目标完全正确。回顾我在那里的时光,最大的挑战在于,英特尔内部基本上有软件、芯片设计和核心制造这几个部分,并且存在三种截然不同的文化。要把这几种文化整合到同一个框架下,是极其困难的。我认为这才是最大的挑战。
主持人: 我认为你要么就彻底经营好这家公司……
帕特尔: 要么就分拆,对吗?但是,你无法在物理上将它们利落地分开,因为切断所有内部联系耗时太长,而他没有这个时间。如果英特尔没有巨额的现金注入,或者他们不裁掉一半的员工,公司就会破产。有人甚至会说,无论如何你都得裁掉30%的人,但那样做又会引发很多糟糕的连锁反应。
即便他们修复了现有的工厂,也拿不出建造下一代工厂所需的巨额资金。所以,有很多问题比分拆公司本身更紧迫。尽管从长远来看,我确实认为晶圆厂必须与芯片设计部门分开,因为这能让每个部门权责更清晰,从而更好地服务客户。只是这个过程太漫长了,还没等完成,公司可能就破产了。
但我真心希望有人能做点什么,比如为英特尔注入巨额资本。我不知道,也许那些超大规模计算巨头会开始想:“等等,如果台积电(TSMC)因为垄断最终将利润率提高到75%,并且把共封装光学、电源传输这些技术都整合进去,我们的成本将急剧飙升。所以,我们不如每家向英特尔投入50亿美元,就当是笔战略投资吧。”这或许能给英特尔一个喘息之机,让它有机会重回正轨,并再次具备竞争力。这是一种希望。
对科技巨头的建议:英伟达、谷歌、Meta、苹果、微软
主持人: 在我们结束之前,让我们完成开始时的游戏,我们给山姆·奥特曼(Sam Altman)提了建议。如果黄仁勋(Jensen)在这里,你会给他什么建议?
帕特尔: 如果黄仁勋在这里,我认为他手握巨额资产,自由现金流相当可观。此外还有税收减免政策——尤其是特朗普时期引入的一项绝佳条款,允许公司在第一年就完全折旧所有GPU集群的成本。我们曾发布一份报告,分析了这项政策对Meta的影响,每年大约能节省100亿美元。
这对每个超大规模计算公司都是一笔巨款。英伟达(NVIDIA)要么坐拥大量现金,要么就要支付数百亿美元的税款。为什么不利用这笔钱以某种方式进入基础设施领域呢?这显然有些疯狂,因为他们等于是在购买自己的GPU,把它们部署到数据中心,与自己的客户直接竞争。但话又说回来,既然客户们都在尝试自研芯片,这种竞争其实早已开始。
他们应该通过投资来加速整个数据中心生态系统的建设。实际上,我们可以相当准确地预测他们明年的收入,因为这基本上取决于数据中心正在建设的总规模(以总功耗瓦数计),这个数字很难有大的波动。
当然,TPU和GPU之间的份额会略有不同,但你必须加速基础设施建设,并且用好你正在积累的所有资本。你是想走回购股票、派发股息的老路吗?当然可以,但那样你就输了。你完全可以通过再投资赚取更多的钱,打造一个更庞大的商业帝国——一个不仅提供芯片或服务器,而是能掌控端到端基础设施的巨无霸。
我认为他可以用这笔庞大的战争基金做些大事。英伟达已经进行了一些股票回购和股息支付,但他们资产负债表上的现金仍在持续增长,我估计到今年年底将超过1000亿美元。
你打算用这些钱做什么?我认为他们可以更多地深入基础设施层面,如果他真的想成为世界之王的话——而我认为他想。
主持人: 谢尔盖(Sergey Brin)和桑达尔(Sundar Pichai)呢?
帕特尔: 我认为他们应该开放TPU,对外销售TPU,并进一步开源XLA软件栈,因为现有的OpenXLA之外,绝大部分仍然是闭源的。他们需要真正开放,并且在各方面都更具进取心。他们在数据中心业务上仍然相当保守,在公司的许多方面都是如此。
他们的TPU团队在下一代产品的设计上也不够积极,部分原因在于团队中许多我认识的顶尖人才都跳槽去了OpenAI。这真令人沮丧,因为这意味着我从他们那里得不到那么多顶尖人才的支持了。我认为他们在公司层面本可以更有作为。他们本不必如此,但他们有能力做得更好。
因为人工智能,尤其是像ChatGPT这类产品,正在改变搜索查询的模式。那些能带来利润的商业查询正在流失,如果谷歌不迎头赶上,其核心业务长期来看将遭受重创。我认为他们在DeepMind方面已经开始行动了,谢尔盖在DeepMind花了很多精力,他们正在努力推进。虽然仍然有些落后,但我认为,如果他们开始对外销售TPU,并重组以加快数据中心建设,凭借其物理基础设施和盈利潜力,完全可以挫败其他所有对手的锐气。
谷歌确实拥有世界上最庞大的计算能力,但如果他们不真正振作起来,未来几年内有些公司很可能会超越他们。所以,这就是我的建议。哦,还有,他们得学会如何发布产品。
主持人: 扎克伯格(Zuck)呢?
帕特尔: 关于“超级智能”的未来还有待观察,但他们正在努力快速推进数据中心建设。比如他们那种“管他呢,直接搭帐篷来代替实体数据中心,反正我们只需要用五年”的劲头。当然,你可以对“超级智能”这个概念不屑一顾,但他们曾试图以300亿美元收购相关公司,虽然没成功。他们花在招揽人才上的钱,远没有300亿那么多。
所以我认为他认识到了模型和基础设施的紧迫性。如果你读过他关于人工智能的博文,你会发现他看到了愿景:可穿戴设备、融入其中的人工智能,以及成为你处理所有购买事务的AI助手。我认为他有愿景,但也需要专注于更快地将愿景变为现实。
但在其核心业务之外,他们每次推出的新产品都感觉有些平庸。Meta Reality Labs表现不错,但我认为他们的产品策略应该更清晰,比如推出一个能与ChatGPT竞争的产品,一个类似Claude Code的云端编程助手。他们应该发布更多元化的产品,而不是仅仅固守自己的一亩三分地。
主持人: 你认为苹果也应该有同样的紧迫感吗?如果蒂姆·库克(Tim Cook)在这里,你会对他说什么?
帕特尔: 有趣的是,苹果一些最优秀的人工智能人才,现在都流向了像Superintelligence这样的初创公司。他们自己也在研发AI加速器,也有AI模型,但就是慢得令人难以置信。他们在上次财报电话会议中提到将增加资本支出,但这就像在说,各位,苹果,如果你们再不投入五百亿、一千亿美元到基础设施上,就要错失整个时代了。我不认为Siri还能堪当大任。
你会越来越多地看到,尽管苹果拥有封闭的生态花园,但这种保护也是有限的。当年他们通过IDFA政策限制了Meta的数据共享,但Meta通过构建更好的模型,如今反而拥有了比以往更多的用户数据和控制权。从某种意义上说,Meta摆脱了对苹果的依赖。同样的情况也正在人工智能领域上演。
其他人将能够整合用户数据,AI代理也能做到。随着人工智能作为交互界面越来越多地取代触摸屏和键盘,苹果将逐渐失去对用户体验的控制权。
我怀疑他们并未真正意识到,当计算的界面从屏幕变为人工智能时,世界将发生怎样翻天覆地的变化。他们的硬件出色,硬件团队正在开发令人惊叹的产品。但我就是不确定,他们是否真正理解未来五年世界将走向何方,而他们为此准备的速度,远远不够。
主持人: 至于微软呢?
帕特尔: 微软也面临类似的问题。我认为他们在2023年和2024年初非常积极,但随后又大幅收紧了。现在,OpenAI正逐渐脱离他们的掌控。他们大幅削减了数据中心的投资,否则他们本可以成为世界上最大的基础设施公司,规模再翻一倍,当然那可能有些过度也不经济。
但是,他们正在失去对OpenAI的控制,内部的自研模型项目正灾难性地失败。MAI项目正在失败,Azure的市场份额正在被Oracle、Core Weave和谷歌等蚕食。
他们内部的芯片项目是所有超大规模公司中最差的,执行力一塌糊涂。而且,为什么GitHub不是世界上收入最高的软件公司?
主持人: 是啊,他们拥有最好的IDE、最好的代码仓库、最好的企业销售团队、最好的模型公司关系,而且还是第一个进入市场的。他们拥有一切先发优势。
主持人: 结果却一事无成。
帕特尔: GitHub Copilot正在走向失败,Microsoft Copilot依然乏善可陈。
这到底是怎么了?我认为微软的成功,很大程度上源于其无与伦比的企业客户关系。但真正可怕的是,他们最终可能没有过硬的产品可以卖给这些客户。萨提亚·纳德拉(Satya Nadella)在销售方面做得非常出色,但是……产品呢?
主持人: 如果埃隆(Elon)在这里,你会给他什么建议?
帕特尔: xAI团队里有很多人对那些“擦边”内容和模型非常着迷。这没关系,你确实能靠这个赚大钱,加速公司的营收增长。但是,他正在因此流失许多优秀人才,并砍掉了很多好的项目。埃隆在吸引顶尖人才和创造事物方面有着独特的魔力,所以我不会和他对着干。但自从他重回公司,重新专注于业务后,情况似乎有所改变。我认为他关注的事情太多了。比如,RoboTaxi项目现在看起来又有了起色,我还没坐过,但有些朋友体验后感觉相当不错。
他应该少做一些冲动的决定。虽然“赌徒式”的决策常常是他成功的关键,但其中一些也正在反噬他。我不确定我能给埃隆提供太多好的建议,我能想到的或许还是老话:再次聚焦于产品。当然,他确实在这些方面投入了大量精力。
主持人: 我觉得这里是个不错的收尾。这是一次非常精彩的讨论。迪伦,非常感谢你的到来。
帕特尔: 谢谢邀请。