HBM,生死局?

随着chatGPT的爆火和AGI的繁荣,英伟达正在以前所未见的速度发展,这不但造就了GPU的繁荣,同时还让扮演关键角色HBM热度高居不下。

继美光和SK Hynix在日前表示,今年的HBM产能自己售罄以后。美光和三星在近日也带来了HBM新品,以期在这个蓬勃发展的市场占有一席之地。其中,前者带来了将用在英伟达GH200的之余,还表示将在2024 年 3 月带来36 GB 12-Hi HBM3E 产品,后者则表示,公司发布的HBM3E 12H将性能和容量提高了 50% 以上。

由此可见,HBM的竞争愈演愈烈,HBM也成为了决定AI芯片命运的关键。这也就是为何Timothy Prickett Morgan认为,谁掌控了HBM,就掌握了AI训练。

以下为Timothy Prickett Morgan的分享正文:

2024 年推动 Nvidia 数据中心 GPU 加速器发展的最重要因素是什么?

是即将推出的“Blackwell”B100 架构吗?我们确信该架构将比当前的“Hopper”H100 及其胖内存弟弟 H200 提供性能飞跃?不。

是该公司有能力从代工合作伙伴台积电那里拿回数百万颗 H100 和 B100 GPU 芯片吗?不,它不是。

是Nvidia AI Enterprise 软件堆栈及其 CUDA 编程模型和数百个库吗?事实上,至少其中一些软件(如果不是全部)是 AI 训练和推理的事实上的标准。不过,又没有。

虽然所有这些无疑都是巨大的优势,并且是许多竞争对手都集中精力的优势,但 Nvidia 在 2024 年推动其业务的最重要因素与金钱有关。具体来说:英伟达在 1 月份结束了 2024 财年,现金和银行投资略低于 260 亿美元,如果本财年按预期进行,收入将突破 1000 亿美元,其中约占 50% 以上如果以净利润的形式体现出来,那么即使在支付了税款、庞大的研发业务以及公司的正常运营费用之后,它将为其金库增加约 500 亿美元。

你可以用 750 亿美元或更多的资金做很多事情,其中之一就是不必太担心为数据中心级 GPU 购买 HBM 堆栈 DRAM 内存所需的巨额资金。这种内存正在以相当好的速度变得更快、更密集(就每芯片千兆位而言)和更胖(FAT,就兆字节带宽和千兆字节容量而言),但其改进速度并没有达到人工智能加速器所需的速度。

随着美光科技 (Micron Technology) 加入 SK 海力士 (SK Hynix) 和三星 (Samsung) 的供应商行列,HBM 的供应量有所改善,并且进给量和速度也随之改善。我们强烈怀疑供应将无法满足需求,HBM 内存的价格将随着 HBM 在一定程度上推动的 GPU 加速器价格而继续攀升。

AMD 拥有 57.8 亿美元的现金和投资,没有那么多闲置资金,尽管英特尔的银行存款略高于 250 亿美元,但它必须建立代工厂,这确实非常昂贵(按顺序如今每次流行 150 亿至 200 亿美元)。因此,它也确实不能在 HBM 内存上挥霍。

对 Nvidia GPU 加速器业务有利的另一个因素是,在 GenAI 繁荣时期,客户愿意为数百、数千甚至数万个数据中心 GPU 支付几乎任何费用。我们认为,2022 年 3 月宣布的原始“Hopper”H100 GPU的价格,特别是在 SXM 配置中,对于具有 80 GB HBM3 内存、速度为 3.35 TB/秒的单个 H100,其价格超过 30,000 美元,我们不知道具有 96 GB 内存,速度为 3.9 TB/秒的H100的费用,但我们能推测 Nvidia 对具有 141 GB HBM3E 内存、运行速度为 4.8 TB/秒的 H200 设备的收费。H200 基于与 H100 完全相同的“Hopper”GPU,将内存容量提高了 76.3%,内存带宽提高了 43.3%,H100 芯片的性能提高了 1.6 倍到 1.9 倍。考虑到额外的容量意味着需要更少的 GPU 并消耗更少的电量来针对静态数据集训练给定模型,我们认为与原始 H100 相比,Nvidia 可以轻松地为 H200 收取 1.6 倍到 1.9 倍的费用。

黄金法则:拥有黄金的人制定规则

我们并不是说 H200 在第二季度开始发货时就会发生这种情况。(我们认为英伟达除了财务数据外还谈论日历季度。)我们只是说这样的举动是有逻辑的。很大程度上取决于 AMD 对“Antares” Instinct MI300X GPU 加速器的收费,该加速器具有 192 GB 的 HBM3,运行速度为 5.2 TB/秒。MI300X 具有更多的原始浮点和整数能力,HBM 容量比 Nvidia 的 H200 高 36.2%,带宽比 H200 高 10.4%。

你可以用 Elon Musk 的最后一块钱打赌,AMD 没有心情做任何事,除了对 MI300X 收取尽可能多的费用,甚至有建议称该公司正在努力升级到更胖、更快的 HBM3E内存领域,以保持对Nvidia的竞争。MI300 使用具有八高 DRAM 堆栈的 HBM3,MI300 中的内存控制器具有信号和带宽容量,可以替换为时钟速度更快的十二高堆栈HBM3E 。这意味着容量增加了 50%,带宽也可能增加了 25%。也就是说,每个 MI300X 具有 288 GB 的 HBM3E 容量和 6.5 TB/秒的带宽。

据推测,这样一个经过精心设计的 MI350X 芯片(我们可能会这样称呼它)在其峰值失败次数中执行了相当大的实际工作量,甚至更多,就像 Nvidia 从 H100 跳跃到 H200 时所发生的那样。

正是在这样的背景下,我们想谈谈 HBM 领域发生的事情。我们将从 SK Hynix 开始,该公司展示了 16 个芯片高的 HBM3E 堆栈,每个堆栈提供 48 GB 的容量和 1.25 TB/秒的带宽。MI300X 配备 8 个内存控制器,可实现 384 GB 内存和 9.6 TB/秒带宽。

有了这些数字,您就不必将 CPU 作为扩展内存控制器来处理大量工作负载。

我们还没有看到关于SK海力士十六高HBM3E内存的介绍,也不知道它什么时候上市。去年 8 月,SK 海力士展示了第五代 HBM 内存和第一代 HBM3E 内存,据称每个堆栈可提供 1.15 TB/秒的带宽。正如下面由 Trendforce 创建的 HBM 路线图所示,我们的预期是提供 24 GB 和 36 GB 容量,这意味着 8 高堆栈和 12 高堆栈。

HBM,生死局?

去年 8 月,Nvidia 显然将成为这些芯片的大客户,并且有传言称 SK Hynix 的这款 24 GB HBM3E 内存将用于即将推出的“Blackwell”B100 GPU 加速器。如果是这样,那么 Blackwell GPU 小芯片上的六个内存控制器将产生 144 GB 的容量,如果 B100 封装按预期具有两个 GPU 小芯片,则意味着最大容量为 288 GB,带宽为 13.8 TB/秒。很难说收益率如何,可能只有 5/6 可用。也有可能 – 但我们希望不是 – B100 看起来不像一个 GPU,而是系统软件的两个 GPU(就像两个芯片组 AMD“Arcturus”MI250X 所做的那样,而不像 MI300X 那样,后者有 8 个较小的 GPU 芯片组这加起来会带来更多的魅力,看起来就像一个 GPU 到系统软件)。我们将看看那里会发生什么。

美光科技 (Micron Technology) 进入 HBM 领域较晚,但鉴于供应短缺和需求旺盛,该公司无疑在该领域最受欢迎,该公司今天表示,它正在开始生产其首款 HBM3E 内存,这是一种八高堆栈容量为 24 GB,并补充说该内存是 H200 GPU 的一部分。我们去年 7 月介绍过的Micron HBM3E 变体的引脚运行速度为 9.2 Gb/秒,每个堆栈提供 1.2 TB/秒的内存。美光还声称,其 HBM3E 内存的消耗量比“竞争产品”少 30%,想必它正在谈论严格的 HBM3E 比较。

美光还表示,它已开始对其 12 高 36 GB HBM3E 变体进行送样,其运行速度将超过 1.2 TB/秒。美光没有透露比 1.2 TB/秒快多少。

今天晚些时候,三星推出了十二高堆栈 HBM3E,这也是其第五代产品,该公司代号为“Shinebolt”。

Shinebolt 取代了去年推出的“Icebolt”HBM3 内存。Icebolt 堆栈式 DRAM 内存为容量为 24 GB 的十二层堆栈提供 819 GB/秒的带宽。Shinebolt HBM3E 在 36 GB 堆栈中提供 1.25 TB/秒的带宽,就像 SK Hynix HBM3E 十二高堆栈一样。

三星在公告中补充道:“用于AI应用时,预计与采用HBM3 8H相比,AI训练的平均速度可提高34%,同时推理服务的并发用户数可提升34%。”扩大11.5倍以上。” 三星指出,这是基于内部模拟,而不是实际的人工智能基准。

HBM,生死局?

三星的 Shinebolt HBM3E 12H 现已提供样品,预计在 6 月底前全面投产。

这些 12 高和 16 高的 HBM3E 堆栈几乎是我们在 2026 年 HBM4 发布之前所拥有的。人们可能希望 HBM4 会在 2025 年出现,毫无疑问,我们面临着推动路线图升级的压力,但这似乎不太可能。据猜测,HBM4 的内存接口将增加一倍,达到 2,048 位。HBM1 到 HBM3E 使用了 1,024 位内存接口,信号传输速度从 AMD 与 SK Hynix 设计并于 2013 年交付的初始 HBM 内存相比,已经从 1 Gb/秒增加到 9.2 Gb/秒。接口加倍将允许两倍的速度。需要大量内存来挂起接口,并以一半的时钟速度提供给定量的带宽,并且随着时钟速度再次提升,带宽会逐渐增加。或者。它们从一开始就以每引脚 9.2 Gb/秒的速度推出,我们只需支付以瓦为单位的价格。

美光路线图表示,HBM4 将提供 36 GB 和 64 GB 的容量,驱动速度为 1.5 TB/秒到 2 TB/秒,因此看起来会是宽速和慢速、宽速和更快的混合,但在发布时不会完全满足需求。谈到带宽。看起来,宽度加倍几乎可以使容量和带宽加倍。预计 HBM4 将具有十六层 DRAM 堆叠,仅此而已。

在 2026 年另一个宇宙的梦想世界中,HBM4 将拥有 2,048 位接口,类似于引脚上的 11.6 Gb/秒信号传输,具有 24 个高 DRAM 堆叠,具有 33.3% 密度的 DRAM 内存(4 GB 而不是 3 GB),因此,每个堆栈的速度约为 3.15 TB/秒,每个堆栈的速度约为 96 GB。哦,那我们就疯狂吧。假设一个 GPU 复合体有十几个小芯片,每个小芯片都有自己的 HBM4 内存控制器。这将为每个 GPU 设备提供 37.8 TB/秒的聚合内存带宽,以及每个设备 1,152 GB 的容量。

从这个角度来看,根据 Nvidia 的说法,一个 1750 亿个参数的 GPT-3 模型需要 175 GB 的容量来进行推理,因此我们正在讨论的理论 GPU 上的内存大小大概能够处理 1.15 万亿个参数推理。对于 GPT-3 训练,需要 2.5 TB 内存来加载数据语料库。如果您的 Hoppers 具有 80 GB HBM3 内存,则需要 32 个 Hopper 才能完成这项工作。但我们的 32 台设备的容量将增加 14.4 倍,因此能够加载相应更大的数据量。我们假设的设备上的带宽也高出 11.3 倍。

请注意,我们没有提及这十几个 GPU 小芯片的失败情况?在大多数情况下,以超过 80% 的利用率运行任何东西都非常棘手,特别是当它可能以不同的精度执行不同的操作时。我们想要的是让触发器与比特/秒的比率恢复正常。我们想要制造一台 12 缸发动机,它有足够的喷油器来实际喂养野兽。

我们的猜测是,80 GB 的 H100 的 HBM3 内存约为理想值的三分之一,带宽也约为理想值的三分之一。这是一种最大化 GPU 芯片销售和收入的方法,正如 Nvidia 已经清楚地证明的那样,但这并不是构建平衡的计算引擎的方法 – 就像英特尔在其 X86 芯片上放置一半的 DRAM 内存控制器并将其全部卖给我们一样——两个带有中间仓部件的插座一直是数据中心通用计算的正确答案。我们还需要更多的内存容量和带宽。

因此,如果使用这个概念性 Beast GPU 加速器将带宽增加 11.3 倍,那么与原始 H100 相比,计算量可能只会增加 4 倍。在张量核心上,H100 在 FP64 精度下的额定速度为 67 teraflops,在 FP8 精度(未使用稀疏性)下的额定速度为 1.98 petaflops。因此,这个 TP100 GPU 复合体在 FP64 下的额定速度为 268 teraflops,在 FP8 下的额定速度为 7.92 petaflops,每个 GPU 小芯片的性能将是 H100 芯片性能的三分之一,并且可能是其大小的四分之一到五分之一,具体取决于使用的工艺技术。假设它是 TSMC 2N 或 Intel 14A 与真正的 H100 上使用的 TSMC 4N。毕竟,这是我们谈论的 2026 年。

这就是我们想要写的那种野兽,如果我们银行里有 260 亿美元,并且未来还有 500 亿美元以上的前景,这就是我们会做的。但是大量的 HBM 内存和计算引擎都塞满了它。

很难说这会花费多少钱。你不可能打电话给 Fry’s Electronics 询问 2026 年 HBM4 内存的市场价格是多少。一方面,Fry’s 已经死了。另一方面,我们现在甚至无法很好地了解 GPU 和其他矩阵引擎制造商为 HBM2e、HBM3 和 HBM3e 内存支付的费用。每个人都知道(或者认为他们知道),HBM 内存和用于将内存链接到设备的任何中介层是现代人工智能训练和推理引擎的两个主要成本。(当然,混合使用片上 SRAM 和普通 DRAM 的人除外。)

HBM,生死局?

在市场上,用于服务器的最大、最厚、最快的 256 GB DDR5 内存模块在 4.8 GHz 下运行的价格约为 18,000 美元,每 GB 约为 70 美元。但仅可扩展至 32 GB 的更薄模块每 GB 成本仅为 35 美元。因此,HBM2e 的价格约为每 GB 110 美元,“超过 3 倍”,如上面的 Nvidia 图表所示。96 GB 的价格约为 10,600 美元。很难说 HBM3 和 HBM3E 的提升在该设备的“市场价格”上可能值多少钱,但如果达到 HBM3 仅提升 25%,那么 H100 的市场价格约为 30,000 美元80 GB 容量,HBM3 的价格为 8,800 美元。转向 96 GB HBM3E 可能会将内存成本提高到“市场价格”至 16,500 美元,因为技术成本又增加了 25%,而且额外的 16 GB 内存和 H100 96 GB 的市场价格应约为 37,700 美元。

听到有关具有 141 GB 容量(由于某种原因不是 144 GB)的 H200 的价格的传言将会很有趣。但如果这种内存价格分层成立——我们意识到这些都是疯狂的估计——那么 141 GB 的 HBM3E 本身价值约为 25,000 美元。但按照这样的价格,H200 的“市场价格”约为 41,000 美元。(注意:这不是我们认为 Nvidia 为 HBM3 和 HBM3E 内存支付的费用——这不是物料清单成本——而是分配给最终用户的价格。)

我们认为涨幅不会超过 25% 左右,因为内存升级到 HBM3,然后再升级到 HBM3E 将推高内存价格,使其高于市场上传闻的 Nvidia GPU 价格。

请记住,这只是一个思想实验,旨在展示 HBM 内存定价如何控制 Nvidia 和 AMD 可以投入该领域的 GPU 数量,而不是相反。内存尾巴正在摇晃 GPU 的狗。内存容量和带宽与 H200 的配合越来越紧密,如果 Nvidia 仅对额外的内存及其额外的速度收取象征性的费用,那么不仅设备的实际效率会提高,而且性价比也会提高。但如果 Nvidia 只是对这些更强大的 H100 和 H200 进行定价,以便性能增益和内存增益达到平衡,那么花的钱就会少得多,而要花的钱就会多得多。

老实说,我们不知道 Nvidia 会做什么,也不知道 AMD 在 MI300 获得 HBM3E 升级后会做什么。现在美光进入该领域的 HBM 供应商增加了 50%,而且 SK Hynix 和三星将产量提高了 2 倍,这是一个很大的数字,但相对于 GPU 和 GPU 的需求,市场上的 HBM 内存仍然只增加了 3 倍。他们的内存更大,可以说大于 3 倍。这不是一个可以降价的环境。在这种环境下,人们会提高更先进的计算引擎及其内存的价格,并继续尽可能薄地扩展 HBM 内存。

这就是为什么只要 Nvidia 平台继续成为首选,能够支付高价购买 HBM 内存的人(即 Nvidia 联合创始人兼首席执行官黄仁勋)就可以设定人工智能训练的步伐和价格。

换而言之,对于GPU和HBM来说,他们面对的都是生死局。

内容链接:https://www.hpaper.cn/16901.html

(0)
上一篇 2024-02-28 上午10:38
下一篇 2024-02-28 上午10:40

相关推荐

  • 时隔近两年,贝索斯的蓝色起源商业航天项目重启,将六名游客送入太空

    因发动机故障停飞近两年后,亚马逊创始人、亿万富翁贝索斯旗下蓝色起源公司重启载人太空旅行服务。当地时间周日,蓝色起源用火箭把6名乘客送上了100km的高空,短暂停留后返回地面。 发射曾被推迟一小时,最终于当地时间周日上午9:35分左右在蓝色起源的西德克萨斯州发射场升空。发射后,航天器超越了国际公认的太空高度(100km)。随后,火箭和舱室相继返回地球。其中舱室…

    18小时前
    739
  • “索罗斯战友”到底猛砍了多少英伟达?答案来了:至少70%!

    前索罗斯副手、亿万富翁Stanley Druckenmiller上周表示,人工智能热潮可能被过度炒作了,他削减了许多英伟达持仓,不过减持规模并没有透露。最新的13F文件给出了相关重要线索。 本周公布的13F文件显示,Druckenmiller的家族办公室在今年第一季度出售了超过44.1万股的英伟达股票,将其英伟达持仓减少至仅17.6万股,这意味着仅截至一季度…

    3天前
    789
  • 大摩看好AI服务器成吸金利器!戴尔大涨11%

    人工智能(AI)概念股又飚了,被投资者看好AI服务器强劲需求打动的戴尔就是其中佼佼者。 美东时间5月15日周三,戴尔(DELL)午盘涨至150.28美元,日内涨约12%,收涨11.2%,创盘中和收盘历史新高,今年内累计涨近95%。 虽然戴尔自身周三并未发布任何利好消息,但摩根士丹利的分析师Erik Woodring当天发布了看涨戴尔的报告,预计市场对AI服务…

    4天前
    422
  • 价格战开卷!字节发布豆包大模型,比行业便宜99.3%

    5月15日,在2024春季火山引擎Force原动力大会上,字节跳动正式发布豆包大模型。 据火山引擎总裁谭待介绍,目前,豆包日均处理1200亿Tokens文本,生成3000万张图片。经过一年时间的迭代和市场验证,豆包大模型正成为国内使用量最大、应用场景最丰富的大模型之一。 “大的使用量,才能打磨出好模型,也能大幅降低模型推理的单位成本。豆包主力模型在企业市场的…

    5天前
    382
  • GPT 4o意味着什么?OpenAI加苹果,AI手机势不可挡!

    ChatGPT带飞Siri? 当地时间5月13日上午10点,OpenAI在春季发布会上发布了GPT-4的迭代版本——GPT-4o。据悉,GPT-4o的速度是上一代的两倍,并且对用户更友好:语音唤起、实时对话、无需注册、免费使用。 OpenAI表示,GPT-4o及其文本和图像能力即日起将开始向API和用户推出,语音和视频能力即将推出。 从定位来看,全新的旗舰版…

    6天前
    462
  • “微软-OpenAI”模式!中国“AI独角兽”投了个遍,阿里是中国AI最大金主

    “微软-OpenAI”模式作为AI行业最成功投资案例,近些年成为众多公司争相学习的模板。如今阿里便走在相似的道路上,通过云计算入股人工智能,成为了中国AI领域的投资翘楚,有望在全球AI发展浪潮中占据一席之地。 不同于传统的现金投资方式,阿里提供云计算额度,让这些初创企业能够使用训练AI模型所需的宝贵网络资源。 目前阿里已投资多家国内AI初创公司,包括月之暗面…

    2024-05-13
    210
  • 更专注AI和半导体,甚至有意PK英伟达!软银出售部分“愿景基金”资产

    孙正义投资重心转为半导体和人工智能行业了? 5月10日,据媒体报道,软银集团旗下有一个叫做“愿景基金”的旗舰投资基金,它是全球最大的风险投资基金之一,这个基金曾经很喜欢投资初创公司,特别是那些有潜力的科技公司。此前,软银的创始人孙正义对风险投资交易情有独钟,但最近,孙正义改变了策略,他开始减少传统的风险投资,并转向对高科技行业如半导体和人工智能的战略性投资。…

    2024-05-11
    191
  • 报道:OpenAI计划下周一宣布人工智能搜索引擎

    周四,据报道,OpenAI计划于下周一5月13日宣布其基于AI的搜索产品,以期与谷歌搜索竞争。 上周就有多方位消息证实,OpenAI将发布备受瞩目的ChatGPT搜索引擎产品。OpenAI将会在当地时间5月9日上午10点公布该消息,大约是北京时间周五的凌晨2点。据悉,OpenAI将推出搜索网页,search.chatgpt.com域名和相关的SSL证书已经被…

    2024-05-10
    192
  • 谷歌AI药物研发模型AlphaFold重磅升级:预测所有生命分子的结构和相互作用

    谷歌在生物医学领域的人工智能(AI)模型重磅升级,将为加快药物研发做出更大贡献。 美东时间5月8日周三,谷歌宣布,旗下AI研究实验室谷歌DeepMind以及致力于以AI方式提升药物发现的谷歌姊妹公司Isomorphic Labs联合开发了新的AI模型——AlphaFold 3,称是一种“革命性的模型”,它可以预测蛋白质、DNA、RNA等生物分子的结构以及它们…

    2024-05-09
    1.5K
  • 抢跑苹果甩平价AI手机王炸!谷歌开卖499美元Pixel 8a,AI功能加持不加价

    苹果的人工智能(AI)手机功能还“犹抱琵琶半遮面”,谷歌就已经抢在苹果前面甩出了自己的平价AI手机王炸。 美东时间5月7日周二,谷歌发布新一代平价智能手机Pixel 8a,并当天开始接受预订。虽然它配置了最先进的谷歌处理器,拥有了一批新的AI功能,但并未上调价格,起售价和前代一样仍为499美元。同时,谷歌还发布了新版平板电脑Pxel,不配支架的平板售价399…

    2024-05-08
    1.4K
  • 微软准备推出新款自研AI模型 硬刚谷歌、Anthropic以及OpenAI

    媒体报道,微软公司目前正在开发自家的人工智能模型,与谷歌、Anthropic以及OpenAI竞争。 据了解,这是自从微软向OpenAI投资超过100亿美元以重新获得后者人工智能模型的使用权以来,微软首次开始训练一个规模足够大的内部AI模型。这个新模型在内部被称为MAI-1,由Mustafa Suleyman负责,他曾是谷歌AI的负责人,此前也担任AI初创公司…

    2024-05-07
    1.5K
  • 高盛:上周对冲基金科技股买入力度为一年多以来最大

    高盛的大宗经纪业务数据显示,从上周情况来看,被认为是“聪明钱”的对冲基金对科技股的风险偏好并没有丧失,这一群体以一年多以来最快的速度抢购科技股,对科技股的净买入创下2022年12月以来最大,主要是由于多头仓位增加和空头回补推动。这也是对冲基金连续第四周净买入科技股。 事实上,标普500信息科技指数在上周之前的时间里表现疲软,4月的大部分时间都在下跌,主要是由…

    2024-04-30
    1
  • 禾赛发起一场“科技平权”

    作者 | 郑巧 编辑 | 周智宇 北京国际汽车展览会上,比亚迪董事长王传福来到了小米汽车展台,小米董事长雷军指着自家SU7问王传福,“您没看过这么好看的激光雷达吧?”引得现场一片哄笑。 随后雷军解释,这是禾赛科技为小米SU7定做的激光雷达。在北京车展上,从百万级的路特斯EMEYA,到25-45万的理想L系列,在智驾上都离不开禾赛科技的激光雷达。甚至16万出头…

    2024-04-29
    3
  • 深蓝要和华为联手挑战特斯拉

    华为造车军团正以势不可挡之势,极速扩张。 4月25日,深蓝汽车在北京车展上宣布,将携手华为打造比特斯拉更好的智能电动汽车。这一宣言预示着深蓝汽车在智能电动出行领域的雄心壮志。此前一天,深蓝汽车 CEO 邓承浩还现身华为发布会。这意味着在阿维塔之外,长安汽车和华为的合作正更加深入。 邓承浩自信地表示,深蓝+华为,一定能超越特斯拉。 华尔街见闻了解到,双方的合作…

    2024-04-28
    1
  • “每季度100亿美元”成为AI大战入场券!三巨头电话会总结:“撒钱”极为坚决!

    世界上排名靠前的几个科技公司已斥资数十亿美金投入AI革命。现在,他们计划再投入数百亿资金。 在本周的季度财报电话会上,Meta、谷歌和微软都强调了他们对AI的投资规模。周三,Meta将其今年的资本支出预测上调了100亿美金,全年上升至350亿到400亿美金。周四,谷歌首席财务官Ruth Porat表示,该公司今年每个季度将在资本支出上花费约120亿美金或更多…

    2024-04-26
    7
  • OpenAI“尝鲜”:收到英伟达全球首部DGX H200 AI超算

    英伟达号称开创先河的人工智能(AI)超级计算机DGX H200正式交付,OpenAI喝到了“头啖汤”。 美东时间4月24日周三,OpenAI总裁兼联合创始人Greg Brockman在社交媒体X透露,英伟达向OpenAI移交全球第一部DGX H200,并附上在交付现场他和OpenAI CEO 奥特曼以及英伟达CEO黄仁勋的合照。Brockman称,这部黄仁勋…

    2024-04-25
    4
  • “最懂苹果分析师”:苹果下调2024和2025年Vision Pro发货量

    天风国际证券分析师郭明錤称,由于需求降幅“严重超出预期”,苹果已经削减了Vision Pro头显的发货量。 4月24日,郭明錤发文表示,苹果已下修2024年Vision Pro发货量至40至45万台,原本预期为70至80万台。 郭明錤认为,苹果在美国之外的市场推出Vision Pro之前就削减了订单,这表明美国的需求大幅下降。因此,预计当Vision Pro…

    2024-04-24
    1
  • 英伟达Jim Fan反击扎克伯格AI“寒冬”论:AI领域还有巨大潜力

    小扎前两天接受采访时,认为AGI短时间不会实现,接下来可能出现又一轮的AI寒冬,对此英伟达人工智能总监Jim Fan不同意。 Jim Fan的观点概括来说如下: 他不认为当前会出现”人工智能(AI)冬天”的现象,即AI发展遇到停滞。即便GPT-5等大型语言模型的发展可能会放缓,但AI的其他领域如机器人技术仍有巨大的发展空间; 他强调了…

    2024-04-23
    6
  • 第一批投大模型的VC,开始卖老股了?

    关于该不该投大模型,依然还在争论,该不该退却早早提上了VC的日程。 最近一位投资人透露,某个头部大模型公司的资方,已经决定在这一轮估值起来后,卖掉老股。听闻此言,我的第一个疑问是,融资进度按下加速键的大模型,这么快已经进入退出期了吗? 不过跟数位大模型投资人交流后我发现,“大模型卖老股退出”作为现象是存在的,但的确还远远称不上“现象级”,并不具备普遍性。 大…

    2024-04-22
    1
  • AI热潮熄火!“一年十倍股”超微暴跌20%,英伟达重挫10%,ARM也崩了

    4月19日周五,“一年十倍股”超微电脑(SMCI)暴跌超20%,股价收跌23%,创两个多月新低。 超微电脑在周五的一份简短新闻稿中表示,将于4月30日公布第三财季业绩。然而,该公司打破了此前提供初步业绩的惯例,这引发投资者担心,疯狂减持该股。 回顾今年1月份,超微电脑在宣布第二季度财报的11天前,上调了销售和盈利指引。亮眼的业绩预告令超微股价暴力拉升,也推动…

    2024-04-20
    1