英伟达的春季发布给元宇宙带来了希望_RACE:RACE价格

3月22日,玩家和AI从业者又爱又恨的老黄带着他的新“核弹”来了。可惜这颗新“核弹”与玩家关系不大,主要面向企业和工业市场。估计与玩家相关的RTX40系列最早要到9月份才会有消息。

好了,废话不多说,看看老黄这次带出了什么样的“大宝贝”。首先是A100显卡的继任者。新一代计算卡H100登场。H100采用全新的Hopper架构和台积电最新的4nm工艺。与上一代A100相比,各方面的参数都有明显提升。

英伟达的超级服务器芯片Grace也再次曝光。与上次给出的数据相比,本次曝光的格雷斯芯片的性能有了惊人的提升。根据发布会的描述,英伟达似乎和苹果走在了同一条路上。使用更多芯片来组装处理器。

除了硬件产品的曝光和发布,NVIDIA还在软件领域带来了很多新的东西,比如OmniverseCloud,主打云端协同,让多个用户直接参与同一个媒体文件的编辑和渲染在云端。

英伟达推出面向大语言模型和生成式 AI 的云服务产品:金色财经报道,英伟达宣布推出一组云服务产品,能够使企业构建、优化和运行定制的大型语言模型和生成式 AI 模型。Getty Images、Morningstar、Quantiphi 和 Shutterstock 等公司将创建和使用利用新的 NVIDIA AI Foundations 服务构建的 AI 模型、应用和服务。企业还可使用 NVIDIA NeMo?语言服务和 NVIDIA Picasso 图像、视频和 3D 服务来构建专用的、特定领域的生成式 AI 应用,用于智能聊天和客户支持、专业内容创作、数字模拟等。英伟达还宣布了用于生物学的 NVIDIA BioNeMo?云服务的新模型。此外,英伟达还推出了针对生成式 AI 应用进行优化的四种推理平台,可帮助开发者快速构建专门的、由 AI 驱动的应用。(界面新闻)[2023/3/22 13:18:38]

此外,NVIDIA还展示了多个基于虚拟现实环境的工业和交通仿真案例,以及一套AI驱动的虚拟角色系统。系统可以通过深度学习进行动作训练,训练后无需额外的骨骼动作设计。操作可以根据指令做出相应的动作。这不仅是AI从业者的狂喜,也是电影和游戏从业者的狂喜。

鸿博股份:与英伟达等共同合作成立北京AI创新赋能中心:8月14日消息,鸿博股份公告,公司与中恒文化、英伟达、英博数科就在北京市共同合作成立北京AI创新赋能中心,开展相关人工智能科技领域项目建设及运营服务事宜签署了《合作协议》。(金十)[2022/8/14 12:25:01]

不得不说,老黄这次带来了很多东西,每一个都能给AI等行业的发展带来明显的变化。让我们来详细看看英伟达发布的内容。

H100和Grace

从去年开始,就有消息称英伟达今年将发布新一代计算卡,并将采用全新的Hopper架构。目前消息是准确的,不过大家都猜测新一代计算卡会采用台积电的5nm工艺,但现在看来,英伟达一步步选择了采用最新的4nm工艺。虽然本质上是5nm+,但就是功耗。它具有更好的性能,还可以集成更高的晶体管。

其实从H100的核心规格来看,不难理解为什么英伟达最终选择了4nm,晶体管集成度高达800亿,比上一代A100多了260亿。核心数增加到16896,这是世界上核心数最多的芯片核心,也是上一代100的2.5倍。

挖矿软件T-Rex已通过双挖形式破解英伟达LHR显卡算力:10月8日消息,挖矿软件T-Rex宣布,已通过双挖形式破解英伟达LHR显卡算力。据T-Rex介绍,包括3060、3070Ti、3080、3080Ti在内的LHR显卡都可进行双挖。目前双挖token的方式主要为使用30%的算力挖ETH,剩余70%的算力挖ERGO、RVN或CFX。值得注意的是,参与双挖的显卡显存需至少8GB。[2021/10/8 20:13:32]

夸张的内核参数提升带来的性能提升也是极其夸张的。根据英伟达官方给出的数据,H100的浮点计算和张量核心计算能力将比上一代提升至少3倍,FP32最高可达60teraflops/秒。,而上一代A100为19.5teraflops。

H100也将率先支持PCIe5.0和HBM3,让内存带宽达到惊人的3TB/s。老黄说,目前全球网络流量只有20台H100可以处理。虽然听上去有些夸张,但确实反映了H100夸大的性能参数。

动态 | 英伟达比特币挖矿产业趋于饱和:据外媒报道,摩根士丹利今日发布投资研究报告,维持Nvidia(英伟达)股票“增持”评级,将目标股价从273美元调低至260美元。由于受数字加密货币挖矿产业的推动,Nvidia图形处理器的营收曾一度大幅增长。但如今,相关的资源短缺局面已经结束(市场已趋于饱和)。

摩根士丹利分析师约瑟夫·摩尔(Joseph Moore)认为,对于Nvidia而言这是一个“逆风”趋势。[2018/11/9]

强大的性能也伴随着夸张的功耗。NVIDIA给出的H100功耗高达700W,相比上一代A100。功耗只有400W,换来的却是两倍的功耗。3倍的性能提升整体来说不算亏。

H100还针对AI训练中用到的模型等进行针对性优化,配备Transformer优化引擎,使大型模型的训练速度可以提高到原来的6倍,大大减少了大型模型所需的训练人工智能模型时间,这个功能也呼应了下面将要讨论的AI分身系统。

在NVIDIA给出的测试数据中,训练一个1750亿参数的GPT-3模型将时间从原来的一周缩短到仅19小时,一个3950亿参数的Transforme模型只需21小时即可完成。训练,效率提升近9倍。

比特币引发显卡涨价潮,英伟达表示已经无法把控价格:英伟达工作人员在国外社区团购平台Massdrop上表示,目前他们也不能控制显卡价格,由于显存等核心配件的供货紧俏,未来显卡在缺货的同时还将保持高价位,有可能要到今年第三季度或者英伟达推出新显卡才会缓解。2017年,经历了PC两大产品的涨价潮,一个是显卡,被各大矿主拿去挖矿去了,一个是内存,关于内存涨价的原因就涉及比较多的方面了。但在2017年年尾,内存价格稍有回落,逐渐稳定,但根据最近的消息指出,显卡即将迎来新一轮的涨价。[2018/2/27]

虽然参数看起来很不错,但实际表现还有待后续实际测试结果来揭晓。至少从RTX30系列和A100的体验来看,最终的实际性能提升可能在2倍到2.5倍之间。,实现3倍的可能性不大,但即使只有2倍,也已经相当不错了,至少在AI方面,已经彻底碾压了AMD的计算卡。

此外,H100还引入了NVIDIA最新的NVIDIANVLink第四代互连技术,可以进一步提升多GPU串连的效率。在NVIDIA给出的数据中,串联后的I/O带宽可以扩展至900GB/s,比上一代提升50%。

再来看看英伟达的新“玩具”Grace,这是英伟达为服务器业务准备的超级服务器芯片。系列产品。Grace芯片采用了最新的ArmV9架构,Nvidia以此为基准构建了两款超级芯片——GraceHopper和GraceCPU超级芯片。

其中,GraceHopper由一个GraceCPU和一个采用Hopper架构的GPU组成。两者将组成一个完整的计算系统。只需要一个芯片就可以构建一个强大的计算服务器。芯片串联起来形成更大的计算阵列。

GraceCPU超级芯片由两颗GraceCPU组成,它们通过NVIDIANVLink-C2C技术互连,形成一个内置144个Arm核心和1TB/s内存带宽的巨型芯片。

说实话,英伟达的GraceCPU超级芯片很难不让人联想到苹果在春季发布会上发布的M1Ultra。它同样基于Arm架构,同样由两颗芯片组成。它也有夸张的特点。内存带宽和性能。

显然,芯片互连与组装技术已成为行业趋势之一,AMD也透露类似技术的CPU正在研发中,最早将于2023年与大家见面。只能说性能发展单个芯片现在正在接近极限。如果想要有更大的提升,可能不得不使用类似的互连技术进行芯片堆叠。

不过,GraceCPU超级芯片的功耗并不低。NVIDIA官方给出的数据是500W,已经远超传统x86架构CPU。当然,考虑到格雷斯CPU超级芯片的夸张表现:SPECrate跑分740分,比第二名高出60%,这样的功耗也不是不能接受的。

显然,在Arm服务器领域,英伟达的野心非常大。

英伟达的虚拟世界

除了一堆高性能硬件,NVIDIA这次还展示了很多软件演示案例,包括使用H100等硬件模拟虚拟现实环境进行各种测试和模拟。在英伟达的演示中,未来企业可以通过强大的英伟达硬件搭建逼真的虚拟测试环境,在其中测试自动驾驶、智能工厂运营等。

通过使用虚拟测试环境,研究人员可以更轻松地测试自动驾驶在面对各种突发事件时的反馈,并在测试过程中直接定位问题,降低整体测试成本。此外,可以构建1:1的“数字工厂”,提前模拟运营,寻找提高效率,发现可能出现的问题,降低工厂正式运营后出现问题的概率。

英伟达将这组应用称为“数字孪生”,可以大大减少自动化工厂和自动驾驶方面的研究和测试投入。

OmniverseCloud是NVIDIA推出的全新云创建服务。通过OmniverseCloud,用户可以随时随地访问和编辑大型3D场景,无需等待大量数据的传输,还可以让用户直接在线协作构建3D模型。

过去,3D模型和3D场景的协同构建需要在服务器上进行。OmniverseCloud上线后,相关创作者可以通过任何支持OmniverseCloud的终端直接访问协作空间并参与其中。大大提高了创作者的反应速度和工作自由度。

此外,NVIDIA还为创作者准备了第二个惊喜,一套AI驱动的虚拟角色系统,可以让AI在短时间内完成训练,学习各种指令对应的动作。比如一个简单的砍杀动作,在正常的制作过程中,动作架构师首先需要一步步调整动作骨架,然后放到场景中进行测试。整个过程需要很多时间。并且每个不同的动作都需要重新调试。

借助这套AI虚拟角色系统,当你想让虚拟模型做出斩击动作时,只需要一个命令,AI就会从学习到的动作中找出关联的动作并自动运行,直接保存储蓄。大量的时间和人力,对于游戏开发者和视觉特效创作者来说,这个系统可以让他们将更多的精力集中在其他地方。

虽然NVIDIA的发布会并没有过多提及元宇宙,但从硬件到软件,都是未来构建元宇宙的基础。元宇宙目前无法成为现实的主要原因有两个。一是硬件性能无法满足我们的需求,二是软件领域还不够成熟,无法提供实时的真实环境模拟。技术的基础。

在此之前,我们首先需要的是更强大的计算硬件和更智能的人工智能系统。Nvidia的H100,虚拟现实环境和AI虚拟角色系统的出现,将使我们离真正的元宇宙更近一步。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金智博客

[0:0ms0-7:424ms