首页 资讯 财经 国内 专栏 生活 关注 图库 艺术 关于

科技

旗下栏目: 科技 汽车 健康 旅行

3分钟速览黄仁勋GTC演讲:最强AI芯片、NIM微服务等

科技 | 发布时间:2024-03-19 | 人气: | #评论#
摘要:来源: 科创板日报 上海 财联社3月19日讯(编辑 史正丞)北京时间周二清晨,英伟达GTC 2024会议中最重要的一项日程创始人兼CEO黄仁勋的主题演讲刚刚结束。如同市场预期的那样,全球资本
来源: 科创板日报 上海 

财联社3月19日讯(编辑 史正丞)北京时间周二清晨,英伟达GTC 2024会议中最重要的一项日程——创始人兼CEO黄仁勋的主题演讲刚刚结束。如同市场预期的那样,全球资本市场刚刚见到了新的算力芯片/服务器,以及一堆AI软件层面的应用。

与过往一样,截至发稿,从黄仁勋开始讲话起,英伟达已经洋洋洒洒发布了40篇新闻稿,本文将着重概述一些今天早晨的重点进展,供投资者参考。

更大的GPU——Blackwell架构如期登场

虽然事前全市场都知道今天会有一款新旗舰算力GPU登场,但黄仁勋在演讲中并没有把名字讲清楚——仅表示推出了一款更大、更强的Blackwell架构GPU,一度引发媒体的混乱。但从官网的数据来看,今天老黄手里拿的应该是B200芯片,官网上也列出Blackwell架构存在B100芯片。英伟达并没有披露售价,仅表示将在年内向合作伙伴发货。

英伟达披露,新的B200芯片拥有2080亿个晶体管,采用台积电定制的4NP工艺制造。值得一提的是,这次的芯片将两个die连接成一个统一的GPU,die之间的通信速度可以达到10TB/秒。不出意外,这款芯片使用是192GB的HBM3E内存。

而GB200 Grace Blackwell超级芯片,是由2个B200芯片(4个die)和Grace CPU组合而来。相较于H100,大语言模型性能提升30倍,同时能耗只有25分之一。

老黄在演讲中举例称,如果要训练一个1.8万亿参数量的GPT模型,需要8000张Hopper GPU,消耗15兆瓦的电力,连续跑上90天。但如果使用GB200 Blackwell GPU,只需要2000张,同样跑90天只消耗四分之一的电力。不只是训练,生成Token的成本也会随之显著降低。

配合这一套新芯片,英伟达还推出了第五代新NVLink芯片,以及GB200 NVL72服务器、X800系列网络交换机、下一代人工智能超级计算机NVIDIA DGX SuperPOD等一系列产品。

开发软件新方式:NIM微服务

讲完硬件更新后,黄仁勋也将剩下的时间投入软件生态。除了地球气候数字孪生、医药开发AI外,英伟达也在AI Enterprise 5.0中推出了一系列“微服务”,包括简化企业将AI模型部署到生产环境中的NIM。

黄仁勋说到:“以后公司将不再需要编写软件,而是组装AI模型,给它们提出任务,还有工作产品的示例,审查计划和中间结果。”

英伟达介绍称,NIM微服务通过打包算法、系统和运行优化,并添加行业标准的API,简化了AI模型部署过程。这使得开发人员可以将NIM集成到现有的应用程序和基础设施中,而无需进行大量定制或专业知识。

责任编辑:网络
首页 | 资讯 | 财经 | 国内 | 专栏 | 生活 | 关注 | 图库 | 艺术 | 关于 | 名人堂

Copyright © 2014-2016 中国经济报道网 版权所有 京ICP备16067457号

电脑版 | | 移动版

Ctrl+D 将本页面保存为书签,全面了解最新资讯,方便快捷。