当前位置:首页 > 地方风物 > 正文

亚马逊今日股价(英特尔的股价三倍了,亚马逊即将破3万亿)

本篇文章给大家谈谈亚马逊今日股价,以及亚马逊今日股价对应的知识点,文章可能有点长,但是希望大家可以阅读完,增长自己的知识,最重要的是希望对各位有所帮助,可以解决了您的问题,不要忘了收藏本站喔。

AI世界的发展,真是瞬息万变,最近几个月,由于agent产生的真实需求激增,CPU的重要性又提升了,没落霸主Intel股价大涨,从3月30日的40美元,直接乘了个3,现在是124.92美元,最近一个交易日涨了14%。

GPU的重要性依然无可替代,但是CPU也有了之前被大为低估的价值,比如一个coding agent,它不只是让模型生成代码,而是还要创建文件、运行测试、执行shell命令、读错误日志、修改代码、再跑测试,这些大量都是 CPU 和内存负载。

其实亚马逊也是如此,最近3个月股价涨了40%,市值达到2.97万亿美金,无限逼近3万亿。它苦熬多年的自研CPU+GPU矩阵,叠加AWS的深厚积累,以及和OpenAI和重磅合作,让市场突然觉得,似乎这家公司并没因为没有顶级自研大模型,就在AI世界掉队。

它似乎并不只是规模优势,而是源于一种可反复复制的发展路径,就是先为自己的需求,建设资本密集型基础能力,比如物流,再把这些能力,卖给外部客户,从而放大规模收益,压低单位成本,由此加深护城河。?这一核心逻辑,在物流、AWS、自研芯片AI推理等多个领域,都被反复验证了。

【正文开始】

AI这出肥皂剧,几乎每天都有新闻,领先者和落后者似乎不是按年、甚至不是按季度,而是按月轮换。本周我觉得最耐人寻味、也最有启发的一条新闻,却是关于实体商品和物流的。

Bloomberg报道称:亚马逊推出了一套物流服务,使企业能够将其现有货运与分销能力打包采购,这一消息也压低了联邦快递和UPS等竞争对手的股价。

全球最大的线上零售商周一宣布推出Amazon Supply Chain Services(ASCS),向其他公司开放其供应链与分销服务的“完整产品组合”。这项服务大体上是把现有产品——空运、海运、卡车运输以及“最后一公里”配送——整合成一个新的服务套件。亚马逊称,宝洁和3M等公司已经在使用。

这则公告令人相当满足,因为它印证了我十年前的预测。当时亚马逊主要有两大业务——Amazon.com和AWS,它们其实非常相似:在这两种情况下,亚马逊构建的都是“基础主体(primitives)”,并把自己当作首位、也是最好的客户,由此为早期开发提供正当性,并推动其落地。

而在这两种情况下,最终的玩法都是把这些primitives,卖给其他公司。

当时就已经很明显,物流也会沿着同样的路径发展:越来越清楚的是,亚马逊打算在物流领域复制这一模式:在去年试验 6 架飞机之后,公司最近又租用了 20 架,以充实自己的私有物流网络;除此之外,它还把中国子公司注册成了海运货运代理……

但我认为,如果以为亚马逊会止步于此,那就是误判。正如它在 AWS 和电商分销上所做的那样,我预计它会把这张物流网络向第三方开放,从而提高规模收益,并进一步加深亚马逊最终形成的护城河。

十年后的今天,随着Amazon Supply Chain Services 正式亮相,我们终于走到了这一步。而我认为,这个时间跨度本身就很重要:相比其他任何公司,亚马逊确实是按“十年”为单位来运作的。

它会持续以极大规模进行现实世界中的投资,其目的在于:第一,把原本的边际成本转化为资本成本;第二,再通过向其他企业出售这些能力,来放大这些资本支出的杠杆效应。

顺便说一句,这其实也是一个关于 AI 的故事。

二、AWS 简史

三年前,SemiAnalysis写过一篇题为《Amazon’s Cloud Crisis: How AWS Will Lose The Future Of Computing》的文章,我当时觉得它非常有说服力。

不过在此之前,先补一点背景。

亚马逊不仅发明了云计算,也很早意识到,云计算终将成为一个商品化市场。大多数科技行业的人在思考的是:如何建立可持续差异化、从而抬高价格、获得利润。

亚马逊正是沿着这条路建立优势的:首先是规模最大——这既给了它更强的采购能力,也让它更能摊薄研发成本。

其次是真正的技术创新。AWS构建了一套名为Nitro的专用系统,基于其自研芯片,将网络管理、存储管理、Hypervisor管理等服务器管理工作,从它向外出租的昂贵Intel与AMD服务器上卸载出去。

这样一来,亚马逊就能在单台服务器上运行更多虚拟机,显著提高利用率,也就是形成结构性的成本优势。

随后,亚马逊又通过自家的 ARM 处理器 Graviton,进一步加码自研芯片。Graviton芯片,尤其是前几代,在性能上不如Intel或AMD,但这并不意味着它们毫无用处。

到那时,AWS 已经从单纯的基础设施即服务(IaaS)提供商,扩展为同时提供平台即服务(PaaS)的平台。

IaaS是提供原始算力、存储等资源,让客户在其上运行操作系统或数据库之类的东西,PaaS 则是把这些基础能力直接做成服务提供出来。

以Amazon Relational Database Service(RDS)为例,它是全托管数据库服务,客户只需通过一组 API 访问,无需自己操心完整数据库的管理、扩缩容、复制等问题。

进一步说,这也意味着客户不需要知道、也不需要关心支撑 RDS 这类服务的底层计算基础设施是什么——而它长期以来一直就是Graviton!

PaaS 让亚马逊在盈利上实现了“双杀”:第一,AWS 可以用比 IaaS 更高的毛利率出售 PaaS 产品;第二,公司可以用自己更便宜的硅片来承载这些产品,从而降低成本。

随着时间推移,Graviton的性能竞争力不断增强,而成本仍然更低,这让亚马逊得以向最终用户出售成本更低的计算实例,即便没有第三方大规模采用,仅仅自研硅片这项投入本身,长期来看也已经回本。

三、训练与推理

把时间快进到AI时代,SemiAnalysis当时担心的是:AWS 之前这些优化,反而让它在 AI 面前准备不足。

一个大问题,就是网络。

亚马逊不采用其他网络方案,背后有商业、文化和安全方面的原因。

其中文化因素很重要,多年来,Nitro和网络SoC一直是亚马逊最大的成本优势,这已经写进了它的DNA。

EFA 本身也延续了这一点,但亚马逊没有看到新型工作负载正在如何演进,也没有意识到由于内部工作负载和基础设施团队缺乏前瞻性,需要一个新的层级。

亚马逊正在有意识地选择“不采用”,而我们认为这将在未来反噬它。

另一个问题,是亚马逊坚持自研芯片。这些芯片不仅在性能上落后于最好的英伟达芯片,还可能导致它未来拿到的英伟达芯片更少。

至少会有一些其他云厂商实现节点外NVLink,这就把话题带到了“优先级排序”,AI GPU至少还要面临整整一年的严重短缺。

对AI来说,这是最关键的时期之一,甚至可能划分出“有”和“无”的阵营。

相反,英伟达会优先照顾那些“跟随型”的云厂商。

亚马逊当然也能拿到不小的出货量,但远远达不到需求所在的位置。相对于公有云整体份额,亚马逊拿到的 H100 GPU 份额明显偏低。

其他云厂商同样无法满足需求,但它们能拿到所请求GPU中更高的比例,因此,寻求训练或推理 GPU 的企业就会转向这些云。

眼下,英伟达是决定胜负的造王者,而它正充分利用这一点。它必须把权力格局分散开,防止计算份额过度向亚马逊聚集。

这些担忧,在 2023 年那一时间点上是有根据的。

那是ChatGPT已将 AI 推向主流、但算力大头仍然用于训练的时期。训练需要亚马逊所欠缺的一切,尤其是把大量英伟达GPU连接成一个统一系统的能力。

在那样的系统中,最重要的能力是芯片之间的横向互联,因为训练时需要串行地更新权重。

就这一点而言,微软、甲骨文以及那些新型AI云厂商,采用了完整的英伟达方案,而不是 AWS 偏好的独立 HGX 机架,因此它们的确更适合训练大型语言模型。

顺便说一句,今天在训练这件事上依然如此。变化在于:训练已经不再是AI计算市场中最大的部分,现在最大的部分是推理。

这不仅因为 AI 的普及度更高了,也因为 AI 的工作方式本身发生了根本变化。

1、第一个拐点是 LLM 的出现——可以称之为“ChatGPT 时刻”。在这一范式中,token由GPU生成,并作为问题的答案呈现出来;

2、第二个拐点是推理模型的出现——可以称之为“o1 时刻”。在这一范式中,系统会先生成大量token来“思考”答案,再真正给出答案;这使可寻址的 token 市场呈指数级扩大。

3、第三个拐点是功能型代理(functional agents)的出现——可以称之为“Opus 4.5 时刻”。在这一范式中,触发推理模型的不再是人类提出问题,而是代理在解决问题。这会从两个方向扩大市场。其一,人类可以同时运行多个代理;其二,代理可以多次调用推理模型来完成任务。这已经不只是 token 可寻址市场的一次指数增长,而是两个指数增长的平方叠加。

无论是“从训练转向推理”,还是“推理本身性质的变化”,都对 AWS 的路径有利。

第一,推理虽然仍需要可观的内存,但需求远低于训练。实际上,把模型参数放进单台服务器已经可行,你不再需要把数千颗芯片联网到一起。

第二,虽然推理型与代理型工作负载会消耗更多 token,因此需要大得多的KV cache,但这个增幅大到连最优化的英伟达推理系统,也开始采用专用内存服务器。这种架构比起“数千芯片联成一体”的方案,要更适合亚马逊的网络思路。

第三,代理高度依赖 CPU,这带来两层含义。其一,想把加速器利用满,前提是有足够的一般计算资源;其二,要让异构计算达到最高利用率,就必须把 CPU 与 GPU 解耦,并在不同资源之间路由工作负载——而这种“资源解聚”的抽象,正是亚马逊借助 Nitro 一直在构建的东西。

利用率这一点很关键。

英伟达 CEO 黄仁勋在 GTC 2025 上花了很长时间论证:与其使用定制 ASIC,不如使用英伟达芯片。黄仁勋的观点是,所谓AI工厂——借用他的说法——最终受制于电力,因此决定盈利能力的最重要指标不是芯片成本,而是“每瓦 token 产出”。

换句话说,如果瓦数涨不上去,那么多花钱买更好的芯片、以便同样功耗下产出更多token,就是值得的。

不过,这一论点之所以可能并不成立,尤其对亚马逊这样的公司来说,有三个原因。

第一,如果你有钱买那么多英伟达芯片,你往往也有钱去争取更多电力——而这恰恰是 AWS 目前的重点。这非常符合 AWS 一贯的操作方式:在更上游的环节(这里是电力)投入更多,以换取下游更低的支出(不去支付英伟达极高的芯片利润);

第二,从长期看,电力比逻辑芯片更接近一种商品。这意味着它所在的市场更可能通过创新和竞争来打破瓶颈;换言之,投资自研硅片,反而更可能带来投资回报;

第三,推理型工作负载——尤其是代理型推理——的性质决定了,要做到加速器的“完美利用率”,要比训练时难得多。

不过,如果你连一颗至少足够有竞争力的自研逻辑芯片都没有,这些讨论就毫无意义。

而在这里,亚马逊的长期布局正在显现回报。

亚马逊在 2015 年收购了负责其芯片设计的Annapurna Labs,并在2019年推出首款面向AI的芯片。

没错,它当时并不算出色,但关键在于,那已经是七年前的事了。

如今 Trainium 3 已经相当不错,而且上升轨迹更强。

AWS 已经处在一个位置上,有望在未来的推理市场中拥有可持续的成本优势。

四、AWS 的中立性

更重要的是,AWS 已经在重演 Graviton 的打法。

Trainium芯片在底层支撑着其AI平台 Bedrock,换句话说,即使用户并没有显式选择Trainium,他们实际上也在使用Trainium。

AWS CEO Matt Garman 在接受 Stratechery 采访时就明确谈到了这一点:顺便说一句,我认为仅就 GPU 而言,你未来与很多这类加速芯片打交道的方式,都会是通过抽象层。绝大多数客户其实也不会直接与 GPU 打交道,除非是在笔记本之类的设备里把它当作图形芯片使用。但当你在调用 OpenAI 时,即使它运行在 GPU 上,你对话的对象也不是 GPU;当你在调用 Claude 时,不论它底层是 GPU、Trainium 还是 TPU,你对话的也不是这些芯片,你对话的是接口。现实中绝大多数推理,都是在少数几种模型之上完成的。(全文可见这里,)

因此,不管这个数字是 5、10、20、100,都不是数以百万计的人在直接为这些芯片编程。未来也会如此,因为这些系统太复杂、体量太大了。要训练一个模型,不是很多人有足够的钱去做,也不是很多人有足够的专业能力去管理它们。它们是极其复杂的系统,而 OpenAI团队非常擅长从一个巨大的算力集群里榨出价值。但无论底层芯片是什么,真正拥有那样团队的公司都不会很多,所以我认为,对所有加速芯片来说,这种情况都会成立。

前沿模型在这里也是一个重要因素,而这一点是我之前没有预见到的。

“我会说,我真正失误的地方在于,我没有充分意识到它们实际上没有别的选择;风险投资机构不可能投入 50 亿到 100 亿美元,只是希望一家 AI实验室最终能变成 Anthropic。所以这就是我看漏的地方。不过即使我当时看明白了,我想我们那时也未必做得到。但我不会再犯同样的错误。”

然而,亚马逊之所以既有钱又有芯片去投资 Anthropic,恰恰是因为它先用AWS建出了一台巨大的现金机器。

这就是基础设施型大投资的特征:建设需要很多年,但投资收益会随着时间不断复利。

与此同时,得益于亚马逊和谷歌的投资,Anthropic 不仅能够运行在多种芯片之上,而且在很长一段时间里,它还是唯一一个能在所有领先云平台上获得的前沿模型,这对企业客户而言是重要卖点。

到了微软不得不放弃 Azure 对 OpenAI API 的独占访问权,部分原因就在于,这种独占性反而伤害了它在 OpenAI 身上那笔巨额股权投资的前景。

你也可以进一步论证:在算力稀缺的世界里,亚马逊可能才是获取前沿模型的最佳选择。

微软的核心业务是软件,这意味着它面临巨大的压力,必须优先投资自己的 AI 能力,即使代价是把云客户往后放。这正是微软今年早些时候发生的事:因为它把更多算力分配给内部工作负载,Azure的增长预期失手了。

这个决定可以理解:云需求是持续存在的,但AI对既有软件业务构成的是生存性风险。

谷歌也面临同样的问题:它的核心业务同样是数字业务。虽然搜索抵挡住了许多人预期中聊天机器人带来的冲击,但这个根本性挑战仍然只是被管理,而没有被消除。

相比之下,亚马逊的核心业务深深扎根于物理世界:销售并配送实体商品,以及建设数据中心。这两类业务都更容易让亚马逊把大部分芯片优先投入到客户工作负载之中。

五、亚马逊的未来

如果说本周标志着亚马逊一个长期赌注的兑现,那么今天的各种公告里也已经能看出下一批赌注未来兑现的轮廓。

一个显著例子就是 Amazon Leo——这项卫星服务乍看之下与 SpaceX 的Starlink重复,而后者的优势在于它已经率先做到大规模部署。

Leo之所以像AWS,并不只是因为它极端资本密集,更关键的一点在于,亚马逊自己会成为赋予这项服务以规模的首位、也是最佳客户。说到这里,又该回到物流。前文我提到,亚马逊配送至今仍然存在边际成本,因为把包裹送到用户手里这件事,仍要靠人来完成。

但亚马逊其实早在 13 年前就已经指向了未来——那时公司第一次公开谈到无人机配送。

这条路当然走得很艰难,但如今越来越可以想象这样一个未来:配送成本主要体现为无人机资产的折旧。

当然,其他企业——比如苹果——也将能够付费使用亚马逊的卫星基础设施,就像它们现在可以付费使用亚马逊的配送服务、付费使用 AWS,或者付费在Amazon.com上销售商品一样。

世界或许会以越来越剧烈的方式发生变化,但由于它始终把目光放在物理世界中的长期投资上,亚马逊的方法论看起来依旧有效。

更广泛地说,我越来越怀疑,企业在长期层面上对AI的脆弱性——换个更积极的说法,即它们长期投资AI的激励——与两个因素高度相关:第一,它与物理世界发生交互的程度;第二,它对自己掌控分发渠道这件事有多大的安全感。

苹果和亚马逊之所以能够接受自己没有最前沿的模型、只要能获得这些模型即可,是因为它们的业务扎根于物理世界。

微软在数据中心上投入巨大,但并不拥有自己的模型;也许是因为它相信自己对企业分发渠道的控制,足以保护其核心业务,或者是因为它对 OpenAI依赖过深。

谷歌和 Meta 的投资规模与亚马逊相近,同时也都在大力押注自有模型。两者都是“聚合者(Aggregators)”,也就是说,它们必须不断重新赢得消费者注意力,因为竞争对手只隔着一次点击;对它们而言,拥有好的 AI 是生死攸关的事。

归根结底,这也是亚马逊擅长做长期押注的另一重优势:威胁还很遥远,所以你总有足够时间去做新的投资,修补期间暴露出来的任何弱点。

又或者,就像 AI 这件事一样,等着市场朝有利于你的方向倾斜。

好了,文章到此结束,希望可以帮助到大家。

有话要说...

最新文章