首页 |
单机游戏 |
网游游戏 |
软件下载 |
您的位置 >> 南通电脑游戏网首页 >> CPU相关新闻 |
推理性能提升30倍!英伟达发布史上最强AI芯片,黄仁勋:将成最成功产品 |
(
2024-3-19
)
|
毫不 夸大地说,英伟达本次GTC大会可能决定美股科技股的 将来命运 。英伟达股价在19日当天早盘一度上涨超过4%,随后回落,收于每股884.55美元,涨0.7%,总市值2.21万亿美元 。 在大会现场,18日下午四点,身穿经典黑色皮衣的黄仁勋登台亮相 。面对座无虚席的美国加州圣何塞SAP 核心,他笑着说道“ 指望你们晓得,这可不是一场演唱会” 。 随后,黄仁勋用一张手绘图回忆了计算机产业的进展史,以及英伟达的发家史 。从1964年IBM推 出生界首个通用计算机开始, 伴随着Windows 95、加快计算乃至深度学习模型AlexNet的浮现,再到2016年,黄仁勋亲手将第一台DGX-1超级计算机送给了OpenAI 。而在2022年,随着聊天机器人ChatGPT横空 出生,生成式AI带来了崭新一轮产业革命 。 黄仁勋手绘计算机进展史 。英伟达直播截图
随后,便到了本次主题 报告众望所归的大戏:最新一代AI芯片Blackwell GPU的亮相 。 黄仁勋一边说着“Hopper很棒,但我们需求更大的GPU”,一边在现场 展示了英伟达的首款Blackwell芯片 。这款芯片被命名为B200, 方案于今年晚些时候面市 。 英伟达当前依照 均匀两年一次的更新频率 晋级GPU架构,对产品性能进行大幅 晋升 。英伟达于2022年公布了基于Hopper架构的H100加快卡,而现在推出基于Blackwell的加快卡在性能上也得到了全面 晋升,更 善于 解决AI 有关 使命 。 从外观来看,Blackwell GPU的体积显而易见大于H100,采纳台积电的4纳米(4NP)工艺蚀刻而成,整合了两个独立创造的裸晶(Die),共有2080亿个晶体管 。英伟达 使用传输速度达到10 TB每秒的NVLink 5.0技术来衔接每块裸晶 。 左边B200,右边H100 。英伟达直播截图
据黄仁勋介绍,一个B200 GPU 能够从其2080亿个晶体管中提供高达20 petaflops(每秒千万亿次浮点运算)的FP4八精度浮点运算 威力 。相比之下,英伟达H100芯片所包含的晶体管数量为800亿个,提供4 petaflops的FP4八精度浮点运算 威力 。 在此 根底上,一个GB200加快卡 联合了两个B200 GPU和一个独立的Grace CPU,将 能够使大模型推理工作负载的性能 晋升30倍,同时 遍及效率 。相比于H100,它 能够“将成本和能源 消费降至1/25” 。 这就 象征着,以往训练一个 占有1.8万亿参数的模型需求8000个Hopper GPU 和15兆瓦的功耗 。而今日,黄仁勋 示意,同样的工作 只有求2000个Blackwell GPU就能 实现,功耗仅为4兆瓦 。同时,取决于各种Blackwell 设施的内存容量和带宽配置,工作负载的实际性能可能会更高 。 黄仁勋
展示GB200加快卡开发板(左侧),称其“可能价格100亿美元” 。
起源:英伟达直播截图
而在参数为1750亿的GPT-3 LLM基准测试中,GB200的性能达到了H100的7倍,而训练速度则达到了H100的4倍 。 对此,黄仁勋也 骄傲地晒出了AI芯片技术的进展图,并 示意:“在过去,计算 威力 均匀每十年性能 晋升100倍 。而在过去的八年中,我们已经将性能 晋升了1000倍, 间隔十年还有两年 。” AI芯片技术的进展图 。英伟达直播截图
英伟达还将面向有大型需求的企业提供成品服务,例如体积 宏大的GB200 NVL72服务器,共包含36个CPU和72个Blackwell GPU,并提供 完全的一体水冷散热 方案,可实现总计720 petaflops的AI训练性能,或高达1440 petaflops的推理性能 。其内部 使用的电缆长度累计接近2英里,共有5000条独立电缆 。 不过,英伟达并没有公布关于B200和其 有关产品的价格,只 示意亚马逊、谷歌、微软和甲骨文等公司都已 方案在其云服务产品中 拆卸NVL72机架,但没有公布这些公司的购买数量,只 透露了亚马逊AWS已 方案 洽购由2万片GB200芯片组建的服务器集群, 能够部署27万亿个参数的模型 。 黄仁勋 示意,Blackwell带来了“令人难以 相信的兴奋”:“我们将会把Blackwell推广给 寰球的AI公司,现在有众多这样的公司都在不同领域做着令人惊奇的工作…… 寰球各地都在签约启动Blackwell,这款Blackwell将成为我们历史上最 顺利的产品公布 。” GB200 NVL72服务器的外观和内部 。英伟达直播截图
在硬件之外,英伟达在AI软件领域也 获得了新的进展 。 黄仁勋 宣告,英伟达推出数十项企业级生成式AI微服务,其中最新的NIM微服务,可 实用于对英伟达及合作 搭档生态系统中20多个抢手的AI模型进行推理优化 。这些云原生微服务目录在英伟达CUDA平台上开发,企业 能够利用这些微服务在自己的平台上 创立和部署定制 利用,同时保留对 常识产权的 完全全部权和操纵权 。 其中,重点介绍的NIM微服务将提供基于英伟达推理软件的预构建容器,使开发者 能够将部署 工夫从几周缩小至几分钟,并为语言、语音和药物发现等领域提供行业 标准API,使开发者 能够利用在自己 根底设施中的专有数据来 快捷构建AI 利用,而不是在云服务器上运行 。 英伟达 指望通过这些服务来吸引购买英伟达服务器的客户来注册英伟达企业版NVIDIA AI Enterprise 5.0,对每个GPU每年收取4500美元的费用 。企业 能够自己 取舍 根底设施来部署这些微服务,包含亚马逊云科技(AWS)、谷歌云、Azure 和 Oracle Cloud Infrastructure 等云平台 。超过400个英伟达认证系统也 支撑 NVIDIA 微服务,包含思科、戴尔科技、慧与(HPE)、惠普、联想和超微的服务器和工作站 。 除了硬件和软件,黄仁勋还在 报告中花大篇幅来介绍英伟达的仿真平台Omniverse和 实用于自主移动机器人的Isaac Robotics平台 。 关于Omniverse,黄仁勋重点介绍了英伟达探究团队利用其在预测 气象问题方面的进展 。黄仁勋还提到,Omniverse Cloud将 能够衔接到苹果的混合 事实(MR)头显Vision Pro 。黄仁勋在现场 展示了一款 能够 彻底交互的汽车模型, 能够通过流媒体技术传输到Vision Pro中 。 关于机器人领域,黄仁勋在现场 宣告,英伟达推 驰名为Project GROOT Foundation的AI模型,旨在 创立性能更好的人形机器人 。此外,还公布了一款专用于机器人的名为Thor的系统芯片 。 黄仁勋 示意:“机器人领域浮现ChatGPT时刻的可能性 近在眉睫,我们已经花了一段 工夫来构建端到端的机器人系统 。” |
百度中 推理性能提升30倍!英伟达发布史上最强AI芯片,黄仁勋:将成最成功产品 相关内容 | |
Google搜索中 推理性能提升30倍!英伟达发布史上最强AI芯片,黄仁勋:将成最成功产品 相关内容 |
按类别查新闻 | ||||||||||||||||||||||||
|
热点网游推荐 | ||||||||
|
Copyright 2024
www.PC0513.com.cn All Rights Reserved.
|
南通电脑游戏网 网爵电脑版权所有 苏ICP备05016148号-41
|