如果亚马逊打算让用户为其想要建立的、相对于竞争对手谷歌和微软的定制人工智能优势付费,那么它就需要让尽可能优秀的模型在其自主研发的加速器上运行。就像谷歌已经在自己的张量处理单元(TPUs)上运行自家的 Gemini 大型语言模型(LLMs),微软最终也会在其 Maia 加速器上运行 OpenAI 的 GPT 一样。
这就是为什么亚马逊上周又向 Anthropic 投资 40 亿美元完全是可预见的。亚马逊是亚马逊网络服务云(AWS)的母公司,而当你们为优质的信息技术产品支付高价时,它也是你们在该云上大量支出的最大受益者。这一事实以及其他因素表明,在未来几年里,我们可以预期会看到亚马逊与 Anthropic、微软与 OpenAI 之间资金往来不断 —— 至少在 Anthropic 和 OpenAI 变得足够富有以制造自己的人工智能加速器并搭建自己的基础设施之前会是如此。
模型构建者和云构建者之间正在实施具有深远影响且全面的战略。早在 8 月份,我们在《“金主” 回旋镖效应:人工智能投资如何助推云计算》一文中就对此进行了部分阐释,当时我们分析了微软 Azure 和亚马逊网络服务(AWS)的财务状况,并谈到了它们的母公司分别向 OpenAI 和 Anthropic 投资 130 亿美元和 40 亿美元的情况。我们还大声质疑,2024 年云计算支出的增长中有多少是由于亚马逊和微软对人工智能初创企业的投资所致。我们认为这个数字相当可观,并且鉴于此,我们还认为这个数字应该在它们的财务报表中予以披露。到目前为止,谷歌的母公司 Alphabet 已向 Anthropic 投资 25.5 亿美元,并且正在对大型语言模型进行多手准备。
华尔街只是很高兴看到仍有人在投资人工智能,而且这个繁荣的领域还在持续发展。最终,所有这些人工智能投资都必须产生投资回报,到目前为止,人们普遍对此抱有希望,但同时也有点担心人工智能将对知识经济产生的影响。
我们在 2023 年 9 月对 Anthropic 进行过深入剖析,这里就不再赘述其历史了。当时,AWS 向 Anthropic 注资 12.5 亿美元,双方同意开始将 Claude 系列大型语言模型移植到这家云构建商自主研发的 Trainium 人工智能训练芯片和 Inferentia 人工智能推理芯片上。我们在 2023 年 12 月对 Trainium 和 Inferentia 芯片进行了深入研究,并解释了 AWS 如何凭借其策略在人工智能训练和推理方面削弱英伟达 GPU 的优势。今年 3 月,亚马逊又向 Anthropic 投入 27.5 亿美元,上周又新增了 40 亿美元的投资。当时,我们计算过,如果在云端使用英伟达的 “Hopper” H100 加速器,40 亿美元仅能覆盖在 90 天内训练大约三十几个参数约为 2 万亿左右的大型语言模型的成本。
凭借可靠的自主研发人工智能芯片以及足够的量产规模以降低单位成本,AWS 在人工智能集群方面能够比使用价格高昂的英伟达 GPU 提供更高的性价比。而且,随着 Claude 模型针对 Trainium 和 Inferentia 芯片进行优化,Anthropic 在扩展其模型以使其更优、更准确的过程中,有望成为这些芯片的最大客户。AWS 可以不断对硬件进行迭代以满足 Anthropic 软件的需求,从而形成一个良性循环,这个循环随后可以扩展到 AWS 运营的 Bedrock 人工智能平台服务。该服务一年前结束测试版并正式推出,它支持 Claude 以及一系列其他大型语言模型,并且已经有成千上万的客户在云端为使用 Claude 付费。
到某个时候,在 Bedrock 上运行的 Claude 模型所产生的收入流足够大,能够产生足够的利润,从而实际上能够覆盖亚马逊(作为零售商和娱乐公司)的人工智能训练和推理需求的成本。对于通用数据中心基础设施而言,这个收支平衡点可能在几年前就已经出现了,尽管很难精确计算出来。
这就是在经营一个超大型云计算业务的同时还涉足其他业务的高明之处 —— 就微软而言,它从事软件分发并跟踪软件使用情况;就亚马逊而言,它在网上销售商品并通过公路运输或互联网将商品送到我们手中。有趣的是,谷歌的搜索、视频流和广告业务所需的信息技术基础设施规模仍然很大,而且谷歌云的盈利能力还不足以让这种效应在谷歌(巧克力工厂,这里是对谷歌的戏称)显现出来。但我们认为,那一天迟早会到来。
而且,正如我们所说,我们认为大型云服务提供商对大型大型语言模型提供商的投资将会持续快速进行,即便后者不断尝试独立融资并让其云服务 “金主” 只持有少数股权。
这就是其中的诀窍,这可能也是埃隆・马斯克决定不在 xAI 与甲骨文云合作建造拥有 10 万台 GPU 的 “巨像” 机器,而是接管田纳西州孟菲斯市外一家原伊莱克斯吸尘器工厂,并让超微和戴尔为 “巨像” 制造硬件的原因之一。多亏了特斯拉和 SpaceX,马斯克非常清楚,云端人工智能比本地人工智能成本高得多。从长远来看,如果看到特斯拉研发的 “道场” 人工智能引擎及相关系统被应用于马斯克旗下的四家公司(除了 xAI、特斯拉和 SpaceX 之外,还包括 X,即以前的推特),我们也不会感到惊讶。为什么不呢?马斯克显然想掌控这些公司的命运,而且他足够富有,可以为这些公司投资打造自己的平台。
要是看到 “道场” 从特斯拉剥离出来并向马斯克的其他公司出售技术,那就更有意思了。为什么不呢?
对于 OpenAI 和 Anthropic 来说,它们的独立性取决于能否连续进行规模越来越大的 “增值轮” 融资,这会提高它们的估值,从而稀释其云服务 “金主” 的股权。
在网上搜索一番后,我们发现 Anthropic 的估值仅为 180 亿美元,按照我们的计算,如果根据投资与估值的关系来算,亚马逊持有该公司 44.4% 的股份,这似乎对于 AWS 来说,持有一家公司的少数股权而言占比有点高。如果根据 AWS 的投资与 Anthropic 总共 137 亿美元的融资额来计算,那么亚马逊的持股比例为 58.4%,这样 AWS 就不算少数股东了。(我们认为这肯定不是这两家公司计算持股比例的方式。)
OpenAI 上个月刚刚筹集了 66 亿美元,估值为 1570 亿美元;微软、英伟达、软银以及一大批风险投资家总共为 OpenAI 提供了 219 亿美元的资金,预计它今年的营收可能达到 37 亿美元,但同时预计也会亏损 50 亿美元。如果把微软的投资算作资金(我们并不是在暗示应该这样算),那么微软至少会持有 OpenAI 59.3% 的股份。显然这并没有发生,因为如果是这样的话,微软就会完全拥有 OpenAI 并会相应地采取行动。但根据其 1570 亿美元的估值,投资金额超过 130 亿美元的话,持股比例至少为 8.3%。
目前 xAI 正在进行融资,据传闻,马斯克的这家人工智能公司价值在 400 亿到 450 亿美元之间。xAI 已经在四轮融资中筹集了 114 亿美元,其中包括上周的 50 亿美元一轮融资。我们粗略估算,这轮融资应该足以支付 “巨像” 机器及其数据中心的成本。仅仅购买 100000 台 H100 GPU 的系统,包括网络设备在内,成本大约在 47 亿美元左右。
也许马斯克会打造一个云计算平台?一旦你看清其中的利害关系,这似乎是不可避免的。到时候,你们所有人都可以使用 xCloud(我们暂且这么称呼它),并为特斯拉、SpaceX、xAI 和 X 的数据处理需求提供补贴。
在某个时候,我们也认为英伟达打造一个云计算平台是不可避免的。其中的利润太可观了,让人难以抗拒。
也许英伟达的联合创始人兼首席执行官黄仁勋和马斯克可以一起打造呢?逗你笑一下啦。但在这个信息技术行业,更离奇的事情都发生过。不过他俩一起打造的可能性不大。但想象一下如果他们打造出相互竞争的云计算平台……