正在阅读:英伟达正通过“CPU+GPU+DPU“三位一体改变世界英伟达正通过“CPU+GPU+DPU“三位一体改变世界

2021-05-17 15:29 出处:PConline原创 作者:九月 责任编辑:wangshen

  今年GTC 2021大会上,除了硬件以外,NVIDIA更是重点发布了关于AI技术,以及用于仿真、协作和自主机器训练的NVIDIA Omniverse。随后不久,另一场针对专业可视化领域的媒体沟通会在线上开展,我们有幸进行了更深入的了解。

  线上协作对于21世纪的职场人来说,是几乎每天都要经历的一环。而当创作者们面对复杂的离线混合、在线混合式渲染,以及分布式运算等多平台具有广泛技能的大型团队的分工协作工程,且没有一款能够支持实时在线协作的专业可视化生产力工具时,一定会叫苦连天。

  为了解决这一痛点,NVIDIA通过Omniverse平台,让无论身处何处,无论是3D设计师、科学家、工程师,亦或是项目老板,都能实时通过手机、电脑等设备参与到同一个大型项目中来。

  这种全新的线上分布协同运算工作环境,打破了以前专业ISV生产力工具导出导出的繁琐现象,大家可以通过Omniverse平台快速实现线上协作、数据迁移、软硬件就绪,提升各个环节的工作效率。实际操作起来有些类似于此前全球爆火的《我的世界》游戏中的协作方式。

↑超过30款ISV都可以在NVIDIA Omniverse平台上使用

  Omniverse平台目前能高效连接数十种ISV工具,通过光线追踪、物理模拟、AI运算等新技术带来全新的视觉呈现。例如,用户在使用3ds MAX、Omniverse View、Adobe Substance等典型工作流时,可能会用3ds MAX构建内外部元素、 用Adobe Substance调整光源等,之后还要导出生成给不同的人员协作,流程较为复杂。而Omniverse的核心Nucleus是一个基于交换项目增量的服务器,它可以让Omniverse用户看到全部的实时编辑。比如可以看到加了凳子、加了人,或者加窗户、甚至改地板上的材料、改光源、改日照时间,你都可以实时地让你的客户实时看到,而这一切是互动的,身临其境的。

  Omniverse不仅可以作为打通全工作流的全新工作方式,还可以做物理模拟,还可以做大型的、真正的所谓的虚拟仿真。目前NVIDIA正在跟世界上许多一线车厂进行合作,做基于AI自动驾驶车辆许多零部件的研发。通过Omniverse便可以虚拟出一个世界来,把基于HD map的数据导入到Omniverse,把渲染出来的图像‘喂给’无人驾驶车辆的行车电脑,让它们觉得这个就是它们的摄像头,当它们的雷达感知到真实世界的时候,我们可以让这些车辆不用上路便可以开始路训,这是Omniverse的愿景。我们希望能创造出一个全能的虚拟世界,帮助工业设计、自动驾驶等行业进行物理的模拟和仿真。

  针对Omniverse企业级应用以及个人级应用,NVIDIA也分别推出了相对应的产品,包括NVIDIA认证的笔记本电脑、专业Studio笔记本电脑以及基于RTX的移动工作站、RTX台式机等,不同的配置以满足各种性能级别的图形计算需求。

   

  总体而言,Omniverse将是一款普及大众的专业视觉化平台,任何拥有RTX GPU的用户都可以使用Omniverse进行在线协助创作。

  Ampere架构RTX A5000和A4000 

  与此同时,NVIDIA还希望未来能将GPU的加速能力覆盖至全行业,包括视觉、制造、科学、教育和医疗等。NVIDIA将RTX定义为未来的基石,其中最新Ampere架构的RTX GPU能够适应非常强有力的多GPU、多任务、多重工具之间数据流的调配、调度和渲染,能够支持实时光线追踪、支持加速的人工智能,可满足多GPU、多任务、多工具之间的数据流调配、调度、渲染任务。且得益于Ampere架构GPU搭载的第二代光线追踪核心和第三代Tensor Core,其支持TF32精度数据运算模式,只需调用一半的运算量就能完成近TF32数据的运算精度。

  总体而言A系列的NVIDIA RTX图形显卡是一个为了真正的专业用户在不同的专业领域、专业的行业用户而设计和生产制造的专业生产力工具。

  NVIDIA A6000、A5000、A4000有不同的本地显存配置和不同的算力的性能配置。用户能够根据自身的运算负载、生产力规模及要求,去找到合适的方案。

  相较上代产品而言,A5000无论是显存带宽、显存容量,还是峰值单精度的算力、核心的数量,A5000都有了长足的进步。核心数量从3072提升到了8192,显存达到24GB,因此FP32吞吐量提升了2.7倍,光线追踪能力提升了2倍;因为Ampere架构这一代引入了全新的稀疏式运算,Tensor Cores的TF32性能提升了10倍。

  而A4000也是同样一脉相承,只是做了从双槽到单槽的缩减,相比RTX 4000有了长足的、非常海量的性能提升,能够提供19.2 TFLOPS的峰值单精度性能。

  除了CPU、GPU以外,还有DPU

  目前CPU在各类工作中承受着异常多的网络和存储工作负载,而由于CPU对于例如用软件来通过OVS来做性能转换等应用操作时,效能不佳且会损失过多CPU性能。而NVIDIA则正将以往需由CPU完成的工作,转移到BlueField DPU上面来进行硬件级加速。

  此外,本次GTC上还发布了一个名为MORPHEUS的软件框架。MORPHEUS是通过把DPU和AI技术联合,实现了对于数据中心或者边缘设备里,所有基于NVIDIA统一架构系统的安全和性能保障。这样,通过DPU,数据中心安全性将得到大幅度提升。

  从NVIDIA现在的技术趋势来看,未来将会是一个GPU、CPU、DPU共存的时代。“NVIDIA从核心到边缘都采用了统一的一个计算架构——CPU、GPU、DPU,三“U”一体架构。通过CPU、GPU、DPU之间的协调计算,可以在数据中心里面和边缘里面都可以达到非常好的性能,而且能提供非常高的安全性。”

  vGPU

  目前vGPU在数据中心里面有很多的应用场景,包括VDI、云桌面、远程办公、协同办公,以及远程的设计协作,都需要用到vGPU。今年GTC大会就发布了两款支持vGPU的显卡,A10、一个是A16。

  其中,NVIDIA A10可以和NVIDIA RTX Virtual Workstation、Virtual Compute Server组合提升复杂工作流程的性能。A16则更多面向vPC场景,处理Office、在线视频、视频会议、多屏显示等应用,预计在下半年发货。配备A16 和NVIDIA vPC的GPU加速VDI,还提供了更高的帧率和更低的终端用户延迟,使得生产力应用和工具的响应速度变得更快,为远程工作人员提供优质的用户体验。

  CloudXR

  CloudXR是针对行业内的AR/VR/MR应用,愿景是能把任意地点里面产生的XR(AR/VR)渲染出来的内容,通过网络实时的传输到任意的设备上,包含一体式头盔、MR眼睛、任意的平板等。 

  CloudXR与vGPU产品实际上是强绑定的,通过数据中心vGPU产生的VR或者AR的内容通过5G传输到任意终端设备上,这样一来用一些低端的笔记本也能够去跑VR内容了。

  通过今年的GTC大会来看,作为GPU的创始人,NVIDIA通过GPU越发强大的计算能力,已经在专业可视化、云计算等软硬结合的领域蓬勃发展。

为您推荐

加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
热门排行

笔记本论坛帖子排行

最高点击 最高回复 最新
最新资讯离线随时看 聊天吐槽赢奖品