黄仁勋称 Blackwell 是计算机史上最成功产品,谷歌、微软、OpenAI都要买,如何看待该评价?

知乎热榜6个月前发布 NIUC!
1,174 0 0

阳光下的沈同学的回答

英伟达今年的股东大会开非常迅速,就30分钟,现在来做一个总结

1,股东大会批准了黄仁勋3400万美元的2024财年薪酬方案,较上年涨60%

黄仁勋2024财年薪酬方案包括99.65万美元的基本工资,以及2667.6万美元的股权激励等其他福利

其中股票激励部分占到全部薪酬的88%,现金薪酬仅占12%

英伟达高管的薪酬很大程度上与绩效挂钩,黄仁勋约78%的薪酬通过股票奖励获得,所以英伟达股价大涨等于提高了黄仁勋的薪酬

除了黄仁勋,英伟达的其他高管的年度薪酬总额基本都在1,100万-1,400万美元之间

2,黄仁勋说,Blackwell架构平台很可能成为英伟达史上、以及整个电脑史上最成功的产品

3,黄仁勋说,他认为“实用的量子计算还需要几十年的时间”,当它到来时,“计算算法将是加速和量子方法的结合”

4,本次大会英伟达并未发表任何新品,也没有哪位高管发表任何新品相关言论

5,黄仁勋表示,英伟达在AI芯片领域的优势源于十多年前的押注,围绕AI投资数十亿美元,投入数千名工程师组成的团队

6,英伟达已经从以前侧重游戏“转型”为侧重数据中心的公司,而且希望为公司的AI技术开辟新的市场,例如工业机器人,并计划与所有电脑制造商和云服务商合作

7,英伟达的AI芯片提供了最低的总体拥有成本,这意味着,虽然其他芯片可能更便宜,但考虑到性能和运行成本,英伟达的芯片对用户而言更经济实惠

8,英伟达的平台可以通过所有大型云服务商和电脑厂商广泛提供给大家,为开发人员和客户创造了庞大且有吸引力的安装基础,因此英伟达的平台对客户更有价值

9,Blackwell将被所有主要的云服务提供商服务器制造商和领先的人工智能公司采用,包括亚马逊、Alphabet旗下的谷歌、Meta、微软、OpenAI以及马斯克旗下的特斯拉和xAI

10,提到人工智能的新一轮浪潮预计将使价值50万亿美元的重工业实现自动化

不久的将来,机器人工厂将自主协调生产,制造出更多机器人和产品,英伟达开发的Omniverse平台,作为物理世界与数字世界的融合体,为开发者设计和创建机器人系统提供了可能

黄仁勋强调,自动驾驶汽车本质上是高度复杂的机器人,而汽车行业正在寻求将其整个工作流程数字化

他展望了一个制造业的新时代,其中新兴和成熟企业正在开发机器人和机器人系统


新一代BlackwellGPU架构这个今年3月英伟达就已经宣布过了

Blackwell架构GPU具有2,080亿个晶体管,采用台积电4nm工艺制造,通过10TB/s的片间互联,将GPU裸片连接成一块统一的GPU

Blackwell能够在拥有高达10万亿参数的模型上实现AI训练和实时LLM推理,其成本和能耗较上一代产品降低多达25倍

Blackwell系列芯片售价将在3万——4万美元之间,研发成本上花费了大约100亿美元

Blackwell GPU的训练性能是上一代Hopper GPU的4倍,推理性能是30倍,能源效率约25倍

因为如果要训练GPT1.8万亿参数的模型,用Hopper架构的芯片来训练,可能需要8000个GPU,消耗15兆瓦电力,需要90天左右

但如果用Blackwell,只需要2000个GPU,4兆瓦的电力,能耗大幅降低

Blackwell架构芯片将于三季度增产

黄仁勋称 Blackwell 是计算机史上最成功产品,谷歌、微软、OpenAI都要买,如何看待该评价?

并且英伟达宣布未来AI芯片将一年一迭代

2025年推出Blackwell Ultra GPU

2026年推出Rubin GPU

2027年推出Rubin Ultra GPU

推出下一代架构2026年推出下一代架构Rubin

Spectrum-X年更2026年,Spectrum-X1600可连接数百万个GPU

黄仁勋称 Blackwell 是计算机史上最成功产品,谷歌、微软、OpenAI都要买,如何看待该评价?

英伟达Blackwell系列包括三个型号:

1,B100

2,B200

3,Grace-Blackwell Superchip(GB200)

GB200 Grace Blackwell超级芯片其实是由2个B200芯片(4个die)和Grace CPU组合而来

Blackwell由2080亿个晶体管组成,采用台积电4nm制程

支持多达10万亿参数的模型进行AI训练和实时大语言模型(LLM)推理

两个reticle极限GPU裸片将10TB/秒的芯片到芯片链路连接成单个统一的GPU

Blackwell 将通过新的4位浮点AI支持双倍的计算和模型大小推理能力

英伟达在Blackwell架构基础上推出的一系列系统级解决方案,这些解决方案涵盖了从芯片到整机再到集群的各个层级,为客户提供了完备的AI基础设施

低能耗AI芯片推动数据中心增长

英伟达的技术可以节省98%的成本,减少97%的能源消耗

预计将采用B200和GB200系列芯片的公司包括亚马逊、谷歌、Meta、微软、OpenAI、特斯拉和xAI

黄仁勋称 Blackwell 是计算机史上最成功产品,谷歌、微软、OpenAI都要买,如何看待该评价?

英伟达表示HBM4存储器和3.2T光模块,或在2026年成为主流

英伟达Blackwell的下一代架构将是Rubin架构,新亮点是将配备HBM4内存

这意味着在2025年底,HBM4内存可能就会大规模生产

通信网络方面,英伟达首次提到了百万级GPU互连的以太网络解决方案,且预计将于2026年推出

届时,3.2T光模块或将成为主流(目前是1.6T)

黄仁勋称 Blackwell 是计算机史上最成功产品,谷歌、微软、OpenAI都要买,如何看待该评价?

散热不局限于液冷

Blackwell架构同时推出风冷DGX和液冷MGX两款服务器

DGX的AI算力提升到上一代的45倍,达到1440PFLOPS,而能耗仅为上一代的10倍

新一代DGX能搭载72个GPU,背后由NVLink 5000根电缆组成的主干支持,能为一个机架节省20kW电能

黄仁勋称 Blackwell 是计算机史上最成功产品,谷歌、微软、OpenAI都要买,如何看待该评价?

软件业务不仅是英伟达护城河,而且会成为一个巨大的生意

这些软件业务包括:CUDA、NIM、Omniverse等

英伟达再次强调了NIN和Omniverse的重要性

NVIDIA NIM推理微服务能将企业部署生成式AI应用的时间从几天压缩到几分钟

6月2日,英伟达在Computex(台湾国际电脑展)上宣布,全球2800万开发者可以下载NVIDIA NIM(Nvidia Inference Microservices),将AI模型部署在云、数据中心或工作站上,轻松地构建Copilot(一种AI助理)、ChatGPT聊天机器人等生成式AI应用

这一产品将使得模型部署时间从以前的数周缩短至短短的几分钟

黄仁勋称 Blackwell 是计算机史上最成功产品,谷歌、微软、OpenAI都要买,如何看待该评价?

数百家合作伙伴已嵌入NIM

“每家企业都希望将生成式AI添加到其运营中,但并非每家企业都拥有一支专门的AI研究团队NVIDIA NIM 集成到各个平台中,可供各个开发者使用,可在各个地方运行,它正在帮助技术行业让每个组织都能使用生成式AI。”

NVIDIA NIM 可以通过提供一种简单、标准化的方式将生成式 AI 添加到其应用程序中,大大提高了开发人员的工作效率

Omniverse:Omniverse 是一个虚拟世界模拟开发平台,该平台可以最大限度地减少模拟与现实的差距

开发者可以在 Omniverse 中测试、训练和集成所有东西

机器人可以在虚拟世界里学习如何成为机器人

英伟达的全栈能力相比于其他GPU卖家,需要考量的不再仅仅是GPU,还包括软件平台、网络服务、散热产品、配套CPU等产品

© 版权声明

相关文章

暂无评论

暂无评论...