HBM,生死局?

随着chatGPT的爆火和AGI的繁荣,英伟达正在以前所未见的速度发展,这不但造就了GPU的繁荣,同时还让扮演关键角色HBM热度高居不下。

继美光和SK Hynix在日前表示,今年的HBM产能自己售罄以后。美光和三星在近日也带来了HBM新品,以期在这个蓬勃发展的市场占有一席之地。其中,前者带来了将用在英伟达GH200的之余,还表示将在2024 年 3 月带来36 GB 12-Hi HBM3E 产品,后者则表示,公司发布的HBM3E 12H将性能和容量提高了 50% 以上。

由此可见,HBM的竞争愈演愈烈,HBM也成为了决定AI芯片命运的关键。这也就是为何Timothy Prickett Morgan认为,谁掌控了HBM,就掌握了AI训练。

以下为Timothy Prickett Morgan的分享正文:

2024 年推动 Nvidia 数据中心 GPU 加速器发展的最重要因素是什么?

是即将推出的“Blackwell”B100 架构吗?我们确信该架构将比当前的“Hopper”H100 及其胖内存弟弟 H200 提供性能飞跃?不。

是该公司有能力从代工合作伙伴台积电那里拿回数百万颗 H100 和 B100 GPU 芯片吗?不,它不是。

是Nvidia AI Enterprise 软件堆栈及其 CUDA 编程模型和数百个库吗?事实上,至少其中一些软件(如果不是全部)是 AI 训练和推理的事实上的标准。不过,又没有。

虽然所有这些无疑都是巨大的优势,并且是许多竞争对手都集中精力的优势,但 Nvidia 在 2024 年推动其业务的最重要因素与金钱有关。具体来说:英伟达在 1 月份结束了 2024 财年,现金和银行投资略低于 260 亿美元,如果本财年按预期进行,收入将突破 1000 亿美元,其中约占 50% 以上如果以净利润的形式体现出来,那么即使在支付了税款、庞大的研发业务以及公司的正常运营费用之后,它将为其金库增加约 500 亿美元。

你可以用 750 亿美元或更多的资金做很多事情,其中之一就是不必太担心为数据中心级 GPU 购买 HBM 堆栈 DRAM 内存所需的巨额资金。这种内存正在以相当好的速度变得更快、更密集(就每芯片千兆位而言)和更胖(FAT,就兆字节带宽和千兆字节容量而言),但其改进速度并没有达到人工智能加速器所需的速度。

随着美光科技 (Micron Technology) 加入 SK 海力士 (SK Hynix) 和三星 (Samsung) 的供应商行列,HBM 的供应量有所改善,并且进给量和速度也随之改善。我们强烈怀疑供应将无法满足需求,HBM 内存的价格将随着 HBM 在一定程度上推动的 GPU 加速器价格而继续攀升。

AMD 拥有 57.8 亿美元的现金和投资,没有那么多闲置资金,尽管英特尔的银行存款略高于 250 亿美元,但它必须建立代工厂,这确实非常昂贵(按顺序如今每次流行 150 亿至 200 亿美元)。因此,它也确实不能在 HBM 内存上挥霍。

对 Nvidia GPU 加速器业务有利的另一个因素是,在 GenAI 繁荣时期,客户愿意为数百、数千甚至数万个数据中心 GPU 支付几乎任何费用。我们认为,2022 年 3 月宣布的原始“Hopper”H100 GPU的价格,特别是在 SXM 配置中,对于具有 80 GB HBM3 内存、速度为 3.35 TB/秒的单个 H100,其价格超过 30,000 美元,我们不知道具有 96 GB 内存,速度为 3.9 TB/秒的H100的费用,但我们能推测 Nvidia 对具有 141 GB HBM3E 内存、运行速度为 4.8 TB/秒的 H200 设备的收费。H200 基于与 H100 完全相同的“Hopper”GPU,将内存容量提高了 76.3%,内存带宽提高了 43.3%,H100 芯片的性能提高了 1.6 倍到 1.9 倍。考虑到额外的容量意味着需要更少的 GPU 并消耗更少的电量来针对静态数据集训练给定模型,我们认为与原始 H100 相比,Nvidia 可以轻松地为 H200 收取 1.6 倍到 1.9 倍的费用。

黄金法则:拥有黄金的人制定规则

我们并不是说 H200 在第二季度开始发货时就会发生这种情况。(我们认为英伟达除了财务数据外还谈论日历季度。)我们只是说这样的举动是有逻辑的。很大程度上取决于 AMD 对“Antares” Instinct MI300X GPU 加速器的收费,该加速器具有 192 GB 的 HBM3,运行速度为 5.2 TB/秒。MI300X 具有更多的原始浮点和整数能力,HBM 容量比 Nvidia 的 H200 高 36.2%,带宽比 H200 高 10.4%。

你可以用 Elon Musk 的最后一块钱打赌,AMD 没有心情做任何事,除了对 MI300X 收取尽可能多的费用,甚至有建议称该公司正在努力升级到更胖、更快的 HBM3E内存领域,以保持对Nvidia的竞争。MI300 使用具有八高 DRAM 堆栈的 HBM3,MI300 中的内存控制器具有信号和带宽容量,可以替换为时钟速度更快的十二高堆栈HBM3E 。这意味着容量增加了 50%,带宽也可能增加了 25%。也就是说,每个 MI300X 具有 288 GB 的 HBM3E 容量和 6.5 TB/秒的带宽。

据推测,这样一个经过精心设计的 MI350X 芯片(我们可能会这样称呼它)在其峰值失败次数中执行了相当大的实际工作量,甚至更多,就像 Nvidia 从 H100 跳跃到 H200 时所发生的那样。

正是在这样的背景下,我们想谈谈 HBM 领域发生的事情。我们将从 SK Hynix 开始,该公司展示了 16 个芯片高的 HBM3E 堆栈,每个堆栈提供 48 GB 的容量和 1.25 TB/秒的带宽。MI300X 配备 8 个内存控制器,可实现 384 GB 内存和 9.6 TB/秒带宽。

有了这些数字,您就不必将 CPU 作为扩展内存控制器来处理大量工作负载。

我们还没有看到关于SK海力士十六高HBM3E内存的介绍,也不知道它什么时候上市。去年 8 月,SK 海力士展示了第五代 HBM 内存和第一代 HBM3E 内存,据称每个堆栈可提供 1.15 TB/秒的带宽。正如下面由 Trendforce 创建的 HBM 路线图所示,我们的预期是提供 24 GB 和 36 GB 容量,这意味着 8 高堆栈和 12 高堆栈。

HBM,生死局?

去年 8 月,Nvidia 显然将成为这些芯片的大客户,并且有传言称 SK Hynix 的这款 24 GB HBM3E 内存将用于即将推出的“Blackwell”B100 GPU 加速器。如果是这样,那么 Blackwell GPU 小芯片上的六个内存控制器将产生 144 GB 的容量,如果 B100 封装按预期具有两个 GPU 小芯片,则意味着最大容量为 288 GB,带宽为 13.8 TB/秒。很难说收益率如何,可能只有 5/6 可用。也有可能 – 但我们希望不是 – B100 看起来不像一个 GPU,而是系统软件的两个 GPU(就像两个芯片组 AMD“Arcturus”MI250X 所做的那样,而不像 MI300X 那样,后者有 8 个较小的 GPU 芯片组这加起来会带来更多的魅力,看起来就像一个 GPU 到系统软件)。我们将看看那里会发生什么。

美光科技 (Micron Technology) 进入 HBM 领域较晚,但鉴于供应短缺和需求旺盛,该公司无疑在该领域最受欢迎,该公司今天表示,它正在开始生产其首款 HBM3E 内存,这是一种八高堆栈容量为 24 GB,并补充说该内存是 H200 GPU 的一部分。我们去年 7 月介绍过的Micron HBM3E 变体的引脚运行速度为 9.2 Gb/秒,每个堆栈提供 1.2 TB/秒的内存。美光还声称,其 HBM3E 内存的消耗量比“竞争产品”少 30%,想必它正在谈论严格的 HBM3E 比较。

美光还表示,它已开始对其 12 高 36 GB HBM3E 变体进行送样,其运行速度将超过 1.2 TB/秒。美光没有透露比 1.2 TB/秒快多少。

今天晚些时候,三星推出了十二高堆栈 HBM3E,这也是其第五代产品,该公司代号为“Shinebolt”。

Shinebolt 取代了去年推出的“Icebolt”HBM3 内存。Icebolt 堆栈式 DRAM 内存为容量为 24 GB 的十二层堆栈提供 819 GB/秒的带宽。Shinebolt HBM3E 在 36 GB 堆栈中提供 1.25 TB/秒的带宽,就像 SK Hynix HBM3E 十二高堆栈一样。

三星在公告中补充道:“用于AI应用时,预计与采用HBM3 8H相比,AI训练的平均速度可提高34%,同时推理服务的并发用户数可提升34%。”扩大11.5倍以上。” 三星指出,这是基于内部模拟,而不是实际的人工智能基准。

HBM,生死局?

三星的 Shinebolt HBM3E 12H 现已提供样品,预计在 6 月底前全面投产。

这些 12 高和 16 高的 HBM3E 堆栈几乎是我们在 2026 年 HBM4 发布之前所拥有的。人们可能希望 HBM4 会在 2025 年出现,毫无疑问,我们面临着推动路线图升级的压力,但这似乎不太可能。据猜测,HBM4 的内存接口将增加一倍,达到 2,048 位。HBM1 到 HBM3E 使用了 1,024 位内存接口,信号传输速度从 AMD 与 SK Hynix 设计并于 2013 年交付的初始 HBM 内存相比,已经从 1 Gb/秒增加到 9.2 Gb/秒。接口加倍将允许两倍的速度。需要大量内存来挂起接口,并以一半的时钟速度提供给定量的带宽,并且随着时钟速度再次提升,带宽会逐渐增加。或者。它们从一开始就以每引脚 9.2 Gb/秒的速度推出,我们只需支付以瓦为单位的价格。

美光路线图表示,HBM4 将提供 36 GB 和 64 GB 的容量,驱动速度为 1.5 TB/秒到 2 TB/秒,因此看起来会是宽速和慢速、宽速和更快的混合,但在发布时不会完全满足需求。谈到带宽。看起来,宽度加倍几乎可以使容量和带宽加倍。预计 HBM4 将具有十六层 DRAM 堆叠,仅此而已。

在 2026 年另一个宇宙的梦想世界中,HBM4 将拥有 2,048 位接口,类似于引脚上的 11.6 Gb/秒信号传输,具有 24 个高 DRAM 堆叠,具有 33.3% 密度的 DRAM 内存(4 GB 而不是 3 GB),因此,每个堆栈的速度约为 3.15 TB/秒,每个堆栈的速度约为 96 GB。哦,那我们就疯狂吧。假设一个 GPU 复合体有十几个小芯片,每个小芯片都有自己的 HBM4 内存控制器。这将为每个 GPU 设备提供 37.8 TB/秒的聚合内存带宽,以及每个设备 1,152 GB 的容量。

从这个角度来看,根据 Nvidia 的说法,一个 1750 亿个参数的 GPT-3 模型需要 175 GB 的容量来进行推理,因此我们正在讨论的理论 GPU 上的内存大小大概能够处理 1.15 万亿个参数推理。对于 GPT-3 训练,需要 2.5 TB 内存来加载数据语料库。如果您的 Hoppers 具有 80 GB HBM3 内存,则需要 32 个 Hopper 才能完成这项工作。但我们的 32 台设备的容量将增加 14.4 倍,因此能够加载相应更大的数据量。我们假设的设备上的带宽也高出 11.3 倍。

请注意,我们没有提及这十几个 GPU 小芯片的失败情况?在大多数情况下,以超过 80% 的利用率运行任何东西都非常棘手,特别是当它可能以不同的精度执行不同的操作时。我们想要的是让触发器与比特/秒的比率恢复正常。我们想要制造一台 12 缸发动机,它有足够的喷油器来实际喂养野兽。

我们的猜测是,80 GB 的 H100 的 HBM3 内存约为理想值的三分之一,带宽也约为理想值的三分之一。这是一种最大化 GPU 芯片销售和收入的方法,正如 Nvidia 已经清楚地证明的那样,但这并不是构建平衡的计算引擎的方法 – 就像英特尔在其 X86 芯片上放置一半的 DRAM 内存控制器并将其全部卖给我们一样——两个带有中间仓部件的插座一直是数据中心通用计算的正确答案。我们还需要更多的内存容量和带宽。

因此,如果使用这个概念性 Beast GPU 加速器将带宽增加 11.3 倍,那么与原始 H100 相比,计算量可能只会增加 4 倍。在张量核心上,H100 在 FP64 精度下的额定速度为 67 teraflops,在 FP8 精度(未使用稀疏性)下的额定速度为 1.98 petaflops。因此,这个 TP100 GPU 复合体在 FP64 下的额定速度为 268 teraflops,在 FP8 下的额定速度为 7.92 petaflops,每个 GPU 小芯片的性能将是 H100 芯片性能的三分之一,并且可能是其大小的四分之一到五分之一,具体取决于使用的工艺技术。假设它是 TSMC 2N 或 Intel 14A 与真正的 H100 上使用的 TSMC 4N。毕竟,这是我们谈论的 2026 年。

这就是我们想要写的那种野兽,如果我们银行里有 260 亿美元,并且未来还有 500 亿美元以上的前景,这就是我们会做的。但是大量的 HBM 内存和计算引擎都塞满了它。

很难说这会花费多少钱。你不可能打电话给 Fry’s Electronics 询问 2026 年 HBM4 内存的市场价格是多少。一方面,Fry’s 已经死了。另一方面,我们现在甚至无法很好地了解 GPU 和其他矩阵引擎制造商为 HBM2e、HBM3 和 HBM3e 内存支付的费用。每个人都知道(或者认为他们知道),HBM 内存和用于将内存链接到设备的任何中介层是现代人工智能训练和推理引擎的两个主要成本。(当然,混合使用片上 SRAM 和普通 DRAM 的人除外。)

HBM,生死局?

在市场上,用于服务器的最大、最厚、最快的 256 GB DDR5 内存模块在 4.8 GHz 下运行的价格约为 18,000 美元,每 GB 约为 70 美元。但仅可扩展至 32 GB 的更薄模块每 GB 成本仅为 35 美元。因此,HBM2e 的价格约为每 GB 110 美元,“超过 3 倍”,如上面的 Nvidia 图表所示。96 GB 的价格约为 10,600 美元。很难说 HBM3 和 HBM3E 的提升在该设备的“市场价格”上可能值多少钱,但如果达到 HBM3 仅提升 25%,那么 H100 的市场价格约为 30,000 美元80 GB 容量,HBM3 的价格为 8,800 美元。转向 96 GB HBM3E 可能会将内存成本提高到“市场价格”至 16,500 美元,因为技术成本又增加了 25%,而且额外的 16 GB 内存和 H100 96 GB 的市场价格应约为 37,700 美元。

听到有关具有 141 GB 容量(由于某种原因不是 144 GB)的 H200 的价格的传言将会很有趣。但如果这种内存价格分层成立——我们意识到这些都是疯狂的估计——那么 141 GB 的 HBM3E 本身价值约为 25,000 美元。但按照这样的价格,H200 的“市场价格”约为 41,000 美元。(注意:这不是我们认为 Nvidia 为 HBM3 和 HBM3E 内存支付的费用——这不是物料清单成本——而是分配给最终用户的价格。)

我们认为涨幅不会超过 25% 左右,因为内存升级到 HBM3,然后再升级到 HBM3E 将推高内存价格,使其高于市场上传闻的 Nvidia GPU 价格。

请记住,这只是一个思想实验,旨在展示 HBM 内存定价如何控制 Nvidia 和 AMD 可以投入该领域的 GPU 数量,而不是相反。内存尾巴正在摇晃 GPU 的狗。内存容量和带宽与 H200 的配合越来越紧密,如果 Nvidia 仅对额外的内存及其额外的速度收取象征性的费用,那么不仅设备的实际效率会提高,而且性价比也会提高。但如果 Nvidia 只是对这些更强大的 H100 和 H200 进行定价,以便性能增益和内存增益达到平衡,那么花的钱就会少得多,而要花的钱就会多得多。

老实说,我们不知道 Nvidia 会做什么,也不知道 AMD 在 MI300 获得 HBM3E 升级后会做什么。现在美光进入该领域的 HBM 供应商增加了 50%,而且 SK Hynix 和三星将产量提高了 2 倍,这是一个很大的数字,但相对于 GPU 和 GPU 的需求,市场上的 HBM 内存仍然只增加了 3 倍。他们的内存更大,可以说大于 3 倍。这不是一个可以降价的环境。在这种环境下,人们会提高更先进的计算引擎及其内存的价格,并继续尽可能薄地扩展 HBM 内存。

这就是为什么只要 Nvidia 平台继续成为首选,能够支付高价购买 HBM 内存的人(即 Nvidia 联合创始人兼首席执行官黄仁勋)就可以设定人工智能训练的步伐和价格。

换而言之,对于GPU和HBM来说,他们面对的都是生死局。

内容链接:https://www.hpaper.cn/16901.html

(0)
上一篇 2024-02-28 上午10:38
下一篇 2024-02-28 上午10:40

相关推荐

  • 极狐自燃,厂家来了盖车衣、撬车标,还反穿衣服,其他车企咋处理的?

    车头条消息,据津云报道,7月24日,浙江杭州一女子称公司新买2个月的极狐车,载客时发生自燃,厂家第一时间的处理方式是撬标、拆内部件,并表示大不了赔点钱。当事人称,对方态度很差,希望极狐道歉并解释。 从网传视频来看,厂家工作人员到达现场后,反穿着衣服,给车辆罩上黑布,并且使用锤子、螺丝刀等工具撬车标。 今日晚间,极狐官微发文回应称,2024年7月24日,杭州发…

    1天前
    17.4K
  • 武汉萝卜快跑涨价,基本与网约车持平?我们测了一下

    车头条消息,据腾讯新闻深网报道,武汉萝卜快跑价格涨至与网约车持平,几毛钱一公里的价格早已成为历史。 报道称,深网于7月14日和7月15日在武汉多个辖区,一共呼叫了24次萝卜快跑,成功打到6次。 这6单中,每公里实收价格最低1块6毛钱,最高1块9毛8。若除去所有优惠补贴,按原价来算,萝卜快跑每公里价格最低4块6毛钱,最高6块7毛钱。 有在武汉洪山区拉活的网约车…

    2天前
    466
  • 马斯克:特斯拉Robotaxi计划10月发布,FSD有望年底前入华

    特斯拉第二季度营收高于预期,但净利润不及预期。在随后的财报电话会上,特斯拉方面对产品路线较为模糊的展望再度影响投资者情绪,美股盘后股价下跌超8%。 7月24日,特斯拉发布的财报显示,公司第二财季营收255亿美元,同比增长2%,高于分析师预期的245.4亿美元;净利润为14.78亿美元,同比下降45%,低于分析师预期的18.06亿美元;调整后每股收益0.52美…

    3天前
    2.1K
  • 马斯克又跳票了,特斯拉推迟交付擎天柱机器人

    7月23日消息,特斯拉到底什么时候才能交付一直在宣传的擎天柱(Optimus)机器人?根据公司首席执行官埃隆·马斯克(Elon Musk)的最新说法,这将比最初的预期要延后一些时间。 马斯克在当地时间周一早上发推文说:“特斯拉明年将在内部使用少量真正有用的人形机器人,有望在2026年为其他公司大批量生产。” 这比马斯克之前承诺的时间有所推迟。马斯克曾在今年4…

    4天前
    9.4K
  • “萝卜快跑”遇行人急刹 车上安全员会介入调整速度

    一辆“萝卜快跑”无人驾驶汽车行驶在粤海街道路上。 “萝卜快跑”无人驾驶汽车上配有一名安全员。 近期,无人驾驶网约车“萝卜快跑”因在武汉市的订单量迎来爆发式增长,单日单车峰值超20单等话题,多次冲上热搜,引发了外界对无人驾驶网约车的诸多讨论。 7月16日,南都湾财社记者在位于深圳南山的试运营区域,实地体验了萝卜快跑、小马智行、如祺出行的无人驾驶网约车服务。总体…

    5天前
    2.6K
  • “俄版谷歌”创始人带走400名顶尖工程师,到欧洲创办AI公司

    当地时间2022年6月11日,俄罗斯莫斯科,Yandex大楼。IC 图 俄罗斯科技巨头Yandex的母公司完成退俄协议后,其联合创始人宣布正在欧洲创办一家人工智能企业,公司大部分员工主要是Yandex的前雇员。 据《金融时报》(FT)7月17日报道,“俄版谷歌”Yandex的联合创始人阿尔卡季·沃洛日(Arkady Volozh)正在欧洲启动一家人工智能公司…

    2024-07-19
    9.9K
  • 退出价格战!大众丰田本田沃尔沃等跟进BBA,7月起降低优惠力度

    红星资本局7月17日消息,日前,宝马中国退出价格战,将从7月起,通过减少销售量来稳定价格,缓解门店的经营压力。不仅是宝马,红星资本局今日采访了解到,大众、丰田、本田、沃尔沃等多个品牌均决定,从7月起调整终端政策,降低终端优惠力度,或不再进一步降价。 值得一提的是,包括日产、奔驰和奥迪在内,一些经销商表示未收到品牌方调价的正式通知,但会根据市场情况动态调整,对…

    2024-07-18
    833
  • GPT-4o 现货变期货,是什么在拖 OpenAI 的后腿

    Her,正从电影,走向现实。 今年 5 月,OpenAI 发布最新 AI 多模态大模型 GPT-4o。相比此前的 GPT-4 Turbo,GPT-4o 速度快了两倍,成本低了一半,实时的 AI 语音互动的平均时延,相比此前版本的 2.8 秒 (GPT-3.5) 到 5.4 秒 (GPT-4),更是达到了 320 毫秒——与人类日常对话响应速度几乎一致。 不仅…

    2024-07-17
    594
  • 硬件缺乏创新的苹果,比以往更需要人工智能

    缺乏创新,是苹果在过去几年里面临的最常见的批评。 事实也的确如此,在硬件层面,自从2017年iPhone X取消沿用10年的Home键后,苹果唯一看得见的创新差不多就是2022年的灵动岛了。最近的两年里,除了贵得惊人、不太可能成为大众消费设备的Vision Pro,苹果几乎没有交出任何让人耳目一新的工业设计成果。 随着每年更新的iPhone越来越缺乏新意,消…

    2024-07-02
    1.3K
  • 美股半年收官:上半年涨14%,其中60%来自五大科技股,英伟达一家贡献超三成

    过去半年日渐黯淡的降息预期,丝毫没有影响美股的强势表现。 截至2024年6月28日收盘,标普500指数上半年累计上涨14%,略低于2023年上半年的表现,但仍然创下自千禧年互联网泡沫以来最强劲的半年度表现之一。 支撑美股涨势的关键支柱,就在于AI热潮。上半年,美股近60%的涨幅由仅五家科技巨头贡献——英伟达、微软、亚马逊、Meta和苹果,其中仅英伟达一家的涨…

    2024-06-29
    976
  • OpenAI AI模型销量超越微软!年化收入达10亿美元

    在2019年与微软建立合作伙伴关系后,AI初创公司OpenAI显示出了惊人的销售能力,根据最新两家公司内部数据,截至3月,OpenAI通过出售对其AI模型的访问权限,产生了约10亿美元的年化收入。相比之下,微软的同类产品Azure OpenAI Service,直到最近才达到了10亿美元的年化收入(ARR)。(这里的“年化收入”是指取前一个月的收入数字,然后…

    2024-06-28
    985
  • 赛道Hyper | 荣耀平板即将发布:探索护眼新玩法

    6月26日,在2024上海世界移动通信大会(以下简称“2024 MWC 上海”)上,荣耀CEO赵明在发表《AI共生时代,智能终端终将以人为中心赋能》的主题演讲中,首次向外界展示了两大突破性端侧AI创新:AI离焦视力舒缓技术和AI换脸检测技术,对智能终端厂商如何用AI赋能个人展示了新思路。 赵明将荣耀平板、笔电和手机相提并论,并向华尔街见闻透露:荣耀Magic…

    2024-06-27
    3.8K
  • 十年前的AI?大摩:为何VC圈一半会议都聊到量子计算

    近期,量子计算技术频繁出现在投资者的讨论中,成为继人工智能之后备受关注的前沿科技领域。摩根士丹利分析师Edward Stanley、Matias Ovrum在最新发布的研究报告深入分析了量子计算的发展现状及其对金融市场的潜在影响,为投资者提供了宝贵的洞察。 他们认为,量子计算目前仍然处于非常早期的阶段,在技术和政策上都不够成熟,企业、投资者、社会公众对量子计…

    2024-06-26
    1.8K
  • 突发!OpenAI停止不支持国家API,7月9日开始执行

    6月25日凌晨,有部分开发者收到了OpenAI的信,“根据数据显示,你的组织有来自OpenAl目前不支持的地区的API流量。从7月9日起,将采取额外措施,停止来自不在OpenAI支持的国家、地区名单上的API使用。” 但这位网友表示,他只在美国和乌克兰的第聂伯罗两个地方使用,都是在白名单上的,还是被无理由禁止。 并且当他试图去联系OpenAI的真人客服时,得…

    2024-06-25
    627
  • 还不到6个月,GPTs黄了

    上周,不少人发现微软官网忽然更新了一条“GPT Builder 即将停用”的通知。宣布将从7月10日起终止对Copilot GPT的支持,并会在四天内把平台上所有已创建的GPT连同相关数据全部删除。 如此猝不及防,因为就在仅仅3个月前, GPT Builder 才被微软打包进Copilot Pro服务正式推出。每月付费20美元的订阅用户可以根据特定需求,创建…

    2024-06-24
    1.7K
  • GPT-4o不香了?OpenAI竞争对手Anthropic发布最强大AI模型Claude 3.5

    6月20日周四,OpenAI竞争对手Anthropic发布了公司迄今为止性能最强大的AI模型Claude 3.5 Sonnet。 在覆盖阅读、编程、数学和视觉等领域的多项性能测试中,Claude 3.5 Sonnet的性能略胜一筹,吊打GPT-4o等一众竞争对手的AI模型,且优于自家旗舰模型Claude 3 Opus。当然,也有些测试不能完全反映AI在现实运…

    2024-06-21
    1.5K
  • “科八条”为资本市场带来哪些变化?

    值此五周年之际,科创板改革再出发 6月19日,陆家嘴论坛正式开幕,证监会主席吴清阐述了当前资本市场建设的三个着力点:一是积极主动拥抱新质生产力发展,二是大力推动上市公司提升投资价值,三是保护投资者。我们认为论坛延续了新“国九条”及资本市场“1+N”系列政策文件的表述,增量举措或在于新质生产力:继5年的“科创”耕耘后,科创板改革再出发,证监会于今日发布《关于深…

    2024-06-20
    1.5K
  • 英伟达高管和董事上半年卖股套现超7亿美元,黄仁勋本人也在其列

    市场对芯片的狂热需求令英伟达股价迭创新高,数据显示,该公司内部人士今年迄今已经卖股套现逾7亿美元,首席执行官黄仁勋也在套现之列。自从5月22日英伟达第一财季业绩公布以来,今年已有超过三分之一的内部人士减持股票。 根据Washington Service汇编的数据,剔除6月10日10股拆1股的影响,英伟达高管和董事迄今已卖掉约77万股英伟达股票,创2023年上…

    2024-06-19
    1.4K
  • 疑加密货币挖矿收入误导投资者遭起诉,英伟达上诉,美国最高法院受理

    美国最高法院周一同意受理英伟达的一项诉讼,该公司申请法庭撤销一项此前针对其的证券欺诈诉讼。此前,在营收中有多少来自波动较大的加密货币行业这个问题上,英伟达被指误导投资者。 此前,由瑞典斯德哥尔摩的投资管理公司E. Ohman J:or Fonder AB领衔一众英伟达股东,对英伟达和该公司首席执行官黄仁勋提起集体诉讼,指英伟达及其公司高层违反了1934年的《…

    2024-06-18
    966
  • 大模型下一步在哪里?王小川、杨植麟等给出回答

    AI大模型是正在进行的新一轮技术革命,它最终能否通向AGI,在技术研发和商业落地之间该如何权衡,这是当下需要厘清的核心议题。 6月14日,在2024北京智源大会上,百川智能CEO王小川、智谱AI CEO张鹏、月之暗面CEO杨植麟、面壁智能CEO李大海等给出了最新的思考和判断。从理论研究层面来看,业内的共识是大模型可以通向AGI。 杨植麟认为,大模型是第一性原…

    2024-06-17
    949