首页 > 自考资讯 > 自考知识

英伟达 gpu,英伟达最新gpu

头条共创 2024-06-27

我们不是处于人工智能时代,而是处于生成式人工智能时代。

是的,正如黄仁勋在2024 年台北电脑展的展前演讲中所说,生成式人工智能技术正在潜意识地影响我们的生活和工作。早在2014年就提出了CUDA(通用计算平台)的概念,英伟达就已经尝到了人工智能带来的甜头。

英伟达仅用了一年多的时间,市值就从1 万亿美元升至2.7 万亿美元。从纸面数据来看,英伟达无疑是这场AI革命的最大赢家,并在这条道路上继续前行。

6月2日晚,Computex 2024(2024台北国际电脑展)在台北贸易中心南港展览馆正式举行,NVIDIA创始人兼首席执行官黄仁勋登台并发表主题演讲,主题如下:我演讲。 《Don’t Walk》针对全球系统,全面展示了NVIDIA 近期在加速计算和生成式AI 方面取得的成就,并探讨了人工智能时代如何推动全球新工业革命。

dec876f140314435a544882812f8fb49~noop.image?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1720093875&x-signature=le2IUTPNeY5ILGMRJCfNAAXDaTc%3D来源:Computex 2024

在这场长达两个小时的演讲中,黄仁勋宣布“世界上最强大的芯片”Blackwell芯片已正式投入生产,Blackwell Ultra AI芯片将于2025年发布,下一代芯片他表示一种新的架构,Rubin,即将到来。将于2026年发布,2027年继续发布。 Rubin Ultra的升级版本以及GPU、CUDA、NIM等各个阶段的NVIDIA产品线历史。

老黄的连击之后,我想很多人都被信息量淹没了。那么Nvidia将如何改变AI行业呢?

一年一更,英伟达GPU架构加速迭代

英特尔和英伟达在很多领域都面临竞争,但英特尔首席执行官帕特·基辛格在接受采访时感叹英伟达在人工智能领域“非常幸运”。占据主导地位,并表示英伟达的“地位”本应是英特尔的。

英伟达在人工智能领域的统治地位只是运气问题吗?黄仁勋的新架构路线图或许就是最好的答案。

摩尔定律由英特尔联合创始人戈登·摩尔提出,指出处理器性能大约每两年翻一番,而价格则下降一半。 NVIDIA将直接加速GPU架构更新,从每两年一次调整为每年一次。首先,我们不谈成本,但这个更新频率可能会推翻摩尔定律。当然,从7nm工艺开始,也有声音说“摩尔定律已死”,但代表性的声音是NVIDIA首席执行官黄仁勋,我期待着NVIDIA能否给这场讨论画上一个句号。

d7d40916791449d29e52d520c1ba870f~noop.image?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1720093875&x-signature=UrQJUZ%2F2rSTSZI8l2J06rxbwK%2Fc%3D 来源:Computex 2024

回到产品本身,Blackwell B200是NVIDIA Blackwell架构中的首款新产品,采用台积电4nm工艺打造,采用双核设计,将两个裸片连接到GPU上。因此,每个GPU芯片有2080亿个晶体管。与上一代GH100 GPU 的800 亿个晶体管相比,Blackwell B200 GPU 是一个显着的改进。

在B200的基础上,Nvidia还推出了Blackwell GB200,这是一款完整的AI芯片组,由两个Blackwell B200 GPU和一个基于Arm的Grace CPU组成。该架构主要是为了满足未来人工智能工作负载的需求,使全球机构能够以比上一代Hopper GPU 架构更低的成本和能耗运行实时生成的人工智能。

黄仁勋没有透露Blackwell Ultra 计划于2025 年推出的具体细节,但考虑到Blackwell 在性能、成本和能耗方面的改进,相同架构性能的升级版本非常令人兴奋。

2026年,以美国女天文学家Vera Rubin命名的下一代GPU架构Rubin将发布,并将率先支持8层HBM4高带宽存储。届时,一款名为“Vera”的CPU将与Rubin GPU一起推出,形成Vera Rubin芯片。此外,Rubin平台还将配备新一代NVLink 6交换机,提供3600GB/s的连接速度和确保高效数据传输的1600GB/s CX9 SuperNIC。

b99f69435a0d4c15bd90615bc1ddac0e~noop.image?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1720093875&x-signature=BF8TMIwalIsKv1IFgnSvCqPExeA%3D来源:Computex 2024

消息称,首款采用Rubin架构的产品是R100,采用台积电3nm EUV制造工艺、四重曝光技术、CoWoS-L封装,预计于2025年第四季度投入生产。

2027年升级版“Rubin Ultra”将HBM4内存升级至12堆栈,容量更大、性能更高。

至此,NVIDIA未来四年的宏伟蓝图正式公布。该战略计划将持续到2027年。 NVIDIA 的早期声明显示了信心。信心来自信心。黄詹勋在演讲中直接将NVIDIA定义为全球生成式AI浪潮的源头和驱动者。

人工智能的崛起之所以可能,是因为我们相信,只要强大的计算变得越来越便宜,就会有人发现它的巨大用途。我们正是使用特定的算法将计算的边际成本降低了一百万级,所以今天使用互联网上的所有数据训练大型模型已经成为每个人的默认逻辑,它已经成为一种流行的选择,没有人质疑或质疑。不再怀疑这种方法了。在英伟达这样做之前,没有人预料到它,没有人要求它,也没有人完全了解它的潜力。

很难判断这种说法是对还是错,但大家都清楚,NVIDIA 倡导的CUDA 正在为全球生成式AI 行业做出贡献,而CPU 性能的增长预计会因CUDA 的放缓而受到影响。已经达到了比较成熟的阶段。诸如此类的技术用于加速计算任务,成为计算需求的新主流,而生成式人工智能也将是世界下一个革命性的技术变革。

英伟达还有什么护城河?

黄仁勋在演讲中还介绍了一系列AI工厂,包括Earth-2数字孪生地球、Isaac机器人平台、nference Microservices等。随着业务不断扩张,似乎很难用一两句话来概括这个价值数万亿美元的芯片巨头。

到现在为止,说到Nvidia的好处,大家最熟悉的就是GPU、CUDA……这些总体可以概括为构建生态系统的软件和堆叠计算能力的硬件。说到这里,就不得不提起我的一位老朋友,英特尔首席执行官帕特·基辛格(Pat Gelsinger)。因为他在Core Ultra大会上表示,NVIDIA的CUDA护城河又小又浅。

在生成式AI时代,如果像基辛格所说的那样,CUDA不能成为NVIDIA的技术护城河,那么我认为答案可能是AI网络。

去年5 月,NVIDIA 在COMPUTEX 2023 上发布了全球首款专为人工智能(AI) 设计的高性能以太网架构Spectrum-X,主要针对生成式AI 市场。报告称,Spectrum-X具有无损组网、动态路由、流量拥塞控制和多服务性能分离等关键特性,可以降低大型模型的训练成本和训练时间。

ed50c4ab26784ee2b11080e4ca78a64b~noop.image?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1720093875&x-signature=Qbpixdbg94Oi4LwvluYU3vONwWk%3D 来源:NVIDIA

大规模的AI模型之所以被称为大规模,不仅是因为它们的参数很多,而且日常训练所需的数据也很大,这些先决条件使得训练大型模型变得非常昂贵。

4月初,OpenAI竞争对手Anthropic首席执行官Dario Amodei在接受采访时表示,目前市场上训练人工智能模型的成本约为1亿美元,到2025年这一成本将会增长。他指出,预计从2020年到2026年减少。一个的成本可能会跃升至50 亿美元或100 亿美元。

猜你喜欢