您的位置:主页 > 公告动态 > 正大动态 > 正大动态

老黄又来抢钱,英伟达再推超强芯片渠道

在最近如火如荼的AI圈里,每一片英伟达H100 GPU的走向都被咱们紧盯着。原因无它,就因为H100是当时进行人工智能练习的最强引擎。

现在,全球约90%以上的大模型都在运用英伟达的GPU芯片,作为生成式AI年代下最为要害的根底硬件,简直一切人工智能企业都在四处搜索H100的踪迹。必定程度上来说,谁具有了更多的H100,谁就在当时AI比赛中占有着优势。

而今日,在洛杉矶的SIGGRAPH大会上,英伟达宣告了新一代GH200 Grace Hopper超级芯片渠道的到来。GH200专门为加快核算和生成人工智能年代而打造,旨在处理世界上最杂乱的生成式人工智能平等负载,包含大型言语模型、引荐体系和矢量数据库,并将供给多种装备。

不只仅仅仅超级芯片,环绕着生成式AI的方方面面,英伟达今日还发布了一系列更新,包含全新AI服务渠道、推出了4款新显卡、服务器等等,企图全方位加快和简化生成式AI项目的开发、练习、布置和运用。

为生成式AI年代打造最强超级芯片渠道

此次,全新的Grace Hopper 超级芯片该渠道装备了全球* HBM3e 处理器,经过大幅添加带宽和内存,将为更大的 AI 模型供给练习和核算才干。该装备经过优化,GH200还可以履行 AI 推理功用,然后有效地为 ChatGPT 等生成式 AI 运用程序供给支撑。

英伟达之所以称GH200为“超级芯片”,因为它将根据 Arm 的 Nvidia Grace CPU 与 Hopper GPU 架构结合在了一同。GH200 与现在*的 AI 芯片 H100 具有相同的 GPU,H100 具有 80GB 内存,而新款 GH200 的内存高达141GB绝地与 72 核 ARM 中央处理器进行了配对。

新版别的GH200采用了全球最快的内存技能HBM3e。英伟达表明,HBM3e内存技能带来了50%的速度进步,一共供给了10TB/秒的组合带宽。因而,新渠道可以运转比从前版别大3.5倍的模型,并以3倍的内存带宽进步功能。

具有更大的内存也意味着未来可以让模型驻留在单个 GPU 上,而不必需求多个体系或多个 GPU 才干运转。

不只才干得到了大幅进步,英伟达还Nvidia 还发布了NVIDIA NVLink™服务器规划对GH200进行了扩展。NVIDIA NVLink™将答应Grace Hopper超级芯片可以与其他超级芯片衔接组合,这一技能方案为GPU供给了彻底拜访CPU内存的途径。

英伟达表明,现在正在开发一款新的双GH200根底NVIDIA MGX服务器体系,将集成两个下一代Grace Hopper超级芯片。在新的双GH200服务器中,体系内的CPU和GPU将经过彻底一致的内存互连进行衔接,这个超级GPU可以作为一个全体运转,供给144个Grace CPU中心、8千万亿次的核算功能以及282GB的HBM3e内存,然后可以适用于生成式AI的巨型模型。

GH200还可以兼容本年早些时候在COMPUTEX上发布的NVIDIA MGX™服务器标准。有了MGX,制造商可以敏捷且经济高效地将Grace Hopper技能整合到100多种服务器变体中。

NVIDIA首席履行官黄仁勋着重,数据中心需求应对生成型AI的激增需求,因而也需求有更具针对性的加快核算渠道,GH200渠道正是为满意这一需求而生。

“你简直可以将任何你想要的大型言语模型放入其间,它会张狂地进行推理。大型言语模型的推理本钱将大幅下降,绝地将大幅进步数据中心的运作功率和功能。”

现在,英伟达方案出售GH200的两种版别:一种是包含两个可供客户集成到体系中的芯片,另一种则是结合了两种 Grace Hopper 规划的完好服务器体系。

英伟达表明,全新的GH200将大大下降练习本钱和进步练习速度,估计将于下一年第二季度上市。

|推出AI Workbench服务,企业级AI项目本地也能开发布置

除了全新的超级芯片渠道,英伟达今日还宣告了推出了一个新的AI服务——AI Workbench,这是一个易于运用的一致东西包,让开发人员可以在 PC 或平等站上快速创立、测验和自定义预练习的生成式 AI 模型,然后将其扩展到简直任何数据中心、公共云或NVIDIA DGX™ 云。

英伟达以为,当时企业级AI的开发进程过分繁琐和杂乱,不只需求在多个库中寻觅适宜的结构和东西,当项目需求从一个根底设施迁移到另一个根底设施时,进程可能会变得愈加具有挑战性。

研讨机构KDnuggets曾进行过一个查询,80%或更多的项目在布置机器学习模型之前停滞不前。Gartner的另一项研讨也显现,因为根底设施的妨碍,有挨近85%的大数据项目失利。

整体来看,企业模型投入生产的成功率整体较低,世界各地的企业都在寻觅适宜的根底设施来构建生成AI模型和运用。而此次,AI Workbench则为这个进程供给了简化的途径。

黄仁勋在会议上表明,为了推进AI技能普惠,有必要让其有可能在简直任何地方运转。因而,AI Workbench将支撑在本地机器上进行模型的开发和布置,而不是云服务上。

AI Workbench供给了一个简略的用户界面,开发人员可以将模型、结构、SDK 和库从开源资源整合到一致的平等区中,可以在本地核算机上运转并衔接到 HuggingFace、Github以及其他盛行的开源或商用 AI 代码存储库。也就是说,开发人员可以在一个界面上轻松拜访大部分AI开发所需资源,不必翻开不同的浏览器窗口。

英伟达表明,运用 AI Workbench 的一些首要优势包含:

易于运用的开发渠道。AI Workbench 经过供给单一渠道来办理数据、模型和核算资源,支撑跨机器和环境的协作,然后简化了开发流程。

与 AI 开发东西和存储库集成。AI Workbench 与 GitHub、NVIDIA NGC 和 Hugging Face 等服务和 Git 服务器集成,用户可以运用 JupyterLab 和 VS Code 等东西跨渠道和根底设施进行开发,具有高度的可重复性和透明度。

增强协作。该项目结构有助于自动化环绕版别操控、容器办理和处理秘要信息的杂乱使命,绝地还支撑跨团队协作。

拜访加快核算资源:AI Workbench 布置是客户端-服务器模型,用户可以开端在其平等站中的本地核算资源上进行开发,并跟着练习作业的规划扩展而转向数据中心或云资源。

英伟达表明,现在戴尔、惠普、Lambda、联想等人工智能根底设施供给商现已采用了 AI Workbench服务,并看到了其进步最新一代多 GPU 才干的潜力。在实践用例中,Workbench 可以协助用户从单台 PC 上的开发转向更大规划的环境,在一切软件都坚持不变的情况下协助项目投入生产。

|万亿芯片老迈,要用AI守擂

此次,环绕着生成式 AI 和数字化年代的开发和内容发明,英伟达还一口气推出了多项的新产品和服务,可以说是包含了生成式AI开发的方方面面。

在桌面AI平等站方面,推出了RTX 6000、RTX 5000、RTX 4500和RTX 4000四款新显卡,旨在为全球专业人士供给最新的 AI图形和实时烘托技能。并根据新GPU推出了一套一站式解决方案 RTX Workstation。

针对 AI 练习和推理、3D 规划和可视化、视频处理和工业数字化等核算密集型运用的需求,推出了装备 Nvidia L40S GPU 的 Nvidia OVX 服务器,旨在加快多个职业的平等流程和服务。

Nvidia 推出了新的RTX 平等站GPU

发布最新版别的企业软件渠道 Nvidia AI Enterprise 4.0,绝地引进用于构建和定制生成式 AI 根底模型的端到端结构 Nvidia NeMo,旨在为企业供给在其运营中集成和布置生成式 AI 模型的东西,但以安全的方法和安稳的 API 衔接。

推出了GPU 加快的软件开发套件和云原生微服务 Maxine,让专业人士、团队和发明者可以使用人工智能的力气并发明高质量的音频和视频作用,然后改善实时通讯服务。此外Nvidia Research 还宣告推出人工智能驱动的 3D 视频技能,在沉溺式通讯范畴获得发展。

跟着英伟达一个接一个新产品和新服务的揭晓,咱们好像也看到生成式AI的生产力爆破年代正在加快到来。

在人工智能的驱动下,英伟达本年的来收益和股价节节攀升,公司市值一度打破万亿美元。但越是风景,竞争对手就越是凶相毕露。跟着人工智能芯片荒的加重,巨子们都开端加大出资、奋勇赶上。

比方,就在今日的大会不久前,AMD刚刚发布了自己“大模型专用”的AI芯片MI300X,直接对标H100。此外,谷歌、亚马逊、特斯拉等也都在规划自己的定制人工智能推理芯片。但现在来看,在越来越剧烈的赛道上,跑在最前边的英伟达一点点没有懈怠。

靠AI“翻身”的英伟达,明显还想要乘着AI的风跑得更快、更远。

*参考资料:

Nivida Technical Blog

注:封面图和插图均来自于英伟达官方。