正在阅读:英伟达RAPIDS:大规模数据分析和机器学习的利器英伟达RAPIDS:大规模数据分析和机器学习的利器

2018-10-29 12:35 出处:其他 作者:佚名 责任编辑:langlang

  【PConline 资讯】在今年的10月10日,英伟达发布了一款针对数据科学和机器学习的GPU加速平台,这个平台能够帮助超大规模的公司提高分析海量数据的速度,帮助公司更加精准的预测业务,这个平台名为——RAPIDS。

  在10月23日英伟达也为媒体举办了媒体讲解会,在大会上为大家详细介绍了RAPIDS的工作原理以及市场受众等等。

  RAPIDS™ 开源软件帮助数据科学家显著地提高了工作绩效,对于这些数据科学家来说,种种业务挑战应接不暇,其中包括预估信用卡诈骗、预测零售存货及理解顾客购买行为等等。众多公司——无论是 Databricks 和 Anaconda 等开源社区先驱还是 Hewlett PackardEnterprise、IBM 和 Oracle 等技术领袖——在 GPU 对数据分析的重要性方面日益达成共识,并对 RAPIDS 表现出越来越多的支持。

  据分析师估计,面向数据科学和机器学习的服务器市场每年价值约为 200 亿美元,加上科学分析和深度学习市场,高性能计算市场总价值大约为 360 亿美元。

  总结来说,RAPIDS是一套开源的库,能够为我们的GPU进行加速,提供了整个Data Science和Machine Learning的端到端的流程,包括:从数据的准备到整个Machine Learning模型的训练,以及到最终数据结果展示过程里面去。

  在媒体讲解会的最后还有互动环节,现在让我们通过QA的方式来了解一下关于RAPIDS的情况以及英伟达公司会提供怎样的产品为大家服务。

  问:咱们是开源的,我知道RAPIDS应该是和咱们的DGX-2配合是跑的最流畅、最好。我想就是说,如果你想体验RAPIDS好的体验。最低的硬件配置,或者说最低的服务器平台,它应该是什么要求?

  答:这个我来回答呀。我们是这样子的,这个Pascal、 Volta架构的GPU的服务器都可以,因为这个东西很多是在大的GPU memory里面来做的,所以我们的推荐应该是在四个NVLink连接的Tesla GPU服务器上就可以。这个服务器可以是我们OEM厂商的服务器,也可以是英伟达DGX Station,这个里面从DGX Station到DGX-1、到DGX-2,我们是4卡、8卡到16卡的服务器,这是NVIDIA的。还有OEM品牌厂商的,从四个NVLink的OEM服务器,到我们和我们的8卡的HGX-1参考架构的服务器,或者是和我们16卡的HGX-2的参考架构的服务器都可以的。我们在GTC上也announce我们几家OEM厂家的推荐机型,基本上会在;那个我不知道,那个网站上有没有,那个老黄的分享应该也有一些是我们几家服务器厂家的类型。

  问:第二个问题,就是因为现在有很多语音厂商也使用咱们英伟达卡或者是加速器做“云”上的服务。但是我看咱们的合作伙伴,大部分还是向SAP、Oracle这些传统的一些可以说是非互联网厂商,咱们和互联网厂商这一块,有没有一些RAPIDS包括这些合作。

  答:这其实最容易想像,刚才我没有提到的一点,就是你怎么获得RAPIDS。除了你可以去我们刚才说的那个网站,不管是我们的第一方网站或者是其它这里面我们提到的网站等一些工具获得以外。NGC,我们现在应该打包进NGC了。我们有两个渠道获得,NGC是我们一个container的registry,它不是一个真的像AWS这样的云,这是我们打包好的一个软件包,,从最底下的这些、我们的这些平台、工具、CUDA,我们上面管理的东西,包括那些container,不同行业的、HPC的container,我们那些framework的container一直到最上面。这种是NGC是一个包,测试好了,你基本上每个月都会根据;因为大家知道整个Deep Learning演进速度太快了,基本上每个月大家都会有更新,我们都会进行测试。测试好以后我们会放到两个地方,一个地方就是我们全世界的“云”合作伙伴。在中国建NGC,我们是在阿里云上面,在美国可能有Oracle。

  其实这是一个很好的途径,大家可以去;就要刚才我前面提到的,像类似于Cloud那些产品。这些都是很好的途径,所以回答您的问题是说,我们既然发到NGC里面了,“云”的厂商我们其实已经这种合作很自然已经有了。

  问:现在市面上有很多这种开源的加速框架这一块。此前已经有很多这种主流的厂商在或者开源社区,已经推出这种;怎么说,它们的生态已经比较完善了。我刚才登陆了一下咱们RAPIDS.ai的页面,这一块数量应该还是非常少。这一块未来我们怎么说服和我们的用户更多去社区的成长吧,这一块。

  答:这其实是一个逐渐的过程。因为今天的时间关系,我那一块讲的比较快;但是如果大家去看Jensen在GTC上的分享视频,他会说的更详细。他把每一个框架出现的时间,他都说了。为什么我们是现在进入到这个领域?因为这本身我们的一些拼图,这些很多的拼图,除了刚才我们说到的PANDAS、SKLEARN和06年、08年、2010年推出的这几个PYTHON相关的库和工具以外,很重要的像DASK和ARROW其实你可以看,它们时间都不太长,它们出现的时间并不太长,或者说被开源的时间并不是太长。但是这些其实是我们的一个很重要的拼图,没有这些拼图,我们GPU和Data Science的workflow好像在以前其实是挺难把它衔接在一起的。甚至包括这种列式的in-memory的这种存储方式,比如像刚才我们说的这种向量化的这种像ARROQ提供的这种格式,其实这些对我们运用GPU是非常重要的一个前提条件、某种程度上。当然在这个过程里面,我们大概其实也花了很长时间跟开源社区一起合作,来去不断的开发、完善我们现在这样的一套平台,其实整个过程还是挺复杂的。

  同期:我再补充一点,为什么现在做?首先我们一直在强调一点,摩尔定律已经结束了,就是在大数据处理这个阶段里面,它的不断的发展,不管是数据的处理还是后面在做训练的过程中,它会需要有大量的算力,现在这个摩尔定理已经到了一种快终结的阶段。而GPU加速、在加速整个,我们传统说:GPU加速深度学习,它其实最根本是加速了计算的应用,而数据分析和机器学习目前是最大的HPC 分支 ,就是说是未来增长巨大,对计算力有非常大的需求,GPU本身的在native它就是适合于做加速HPC应用的。英伟达现在开始做,这个生态里面我们现在逐步的加速这个生态的模块,从数据准备的模块到Machine Learning里面很多算法模块,会逐渐的把这个生态完善。我们会不断有新的东西出来。

  答:其实这个某种程度上,我们也看到很多这种类似的市场需求。最近我读过一篇文章,就是David Patterson谷歌去年图灵奖的获得者。我觉得他的一个观点挺有意思的,某种程度上从我个人角度上讲;昨天晚上我们还在聊这个事,David Patterson那篇文章写的,他的一个专访。从他的角度看,我们现在在进入一个“后摩尔定律时代”。所谓的“后摩尔定律时代”,就是说我们的应用对算力的需求,或者说我们数据的增长量对算力的需求,已经远远超过我们现在正常意义上的我们算力的增长。所以在这个过程里面就提出了一些新的要求,我们的软件工程师、算法工程师,很多的时候也需要了解一些硬件的架构。我们很多以前的硬件工程师,其实某种程度上也需要了解一些软件的需求。软硬件的结合,在未来的一段时间里面,可能是解决后摩尔定律时代,我们的这种数据爆炸、应用复杂度增加,对算力的需求,而算力可能又很难去满足它的一种矛盾,这个变成矛盾,我们可能是解决这个矛盾比较好的一个途径。他甚至在说,也可能下一个图灵奖的人,就会是一个能够把软硬件架构进行一个很好的结合、很好的通过这种架构之间的完善,来去解决这些问题的一个很好的途径。所以我觉得某种程度上,大家可以去看到是说当CPU不能满足这些,CPU让我们的数据科学家要等待几十分钟甚至几个小时的时候,GPU加速在这个时间点上,其实会变得不光是重要,甚至是必要的。

  问:我想问一下,在RAPIDS出来之前,跑这些数据科学的开源程序或者计算方法,是说用GPU做不了,还是说需要哪一些步骤来?

  答:如果他对CUDA很熟,理论上他应该自己可以去。

  同期:是这样,传统的这些都是基于Hadoop SPARK来做的,他们有自己的一套生态,这个地方都是在CPU上来做的,很多在CPU上然后做,而且是做分布式,而且你知道做SPARK Hadoop都是很多个CPU节点连接在分布式的环境里面。这些东西里面就是刚才我们讲的,随着摩尔定律的终结,加速会越来越困难。GPU在这个层面上,就是说我们在早期之前,他们有些人有GPU Data base来做,就是说我们是可以做得到的,也就是我们也注意有几家市场上有GPU Data base加速非常快,但是没有把这个数据的准备、操作、ETL的过程和Machine Learning训练,整个做成一个pipeline,英伟达这一次做的RAPIDS整个的平台,实际上把数据的准备、Machine Learning的训练合成了一个很好的pipeline,所以我的整个的流程里面加速会更快。

  答:我以前也经常出去讲AlexNet的故事,你要熟悉那个故事你就可以理解。AlexNet有编程能力,所以他就可以用GPU加速他自己的网络、数据库训练。其他人可能以前没有CUDNN,没有TensorFlow这些工具的时候,那可能对于每一个人的编程能力、软硬件架构能力就非常高。其实RAPIDS是给你提供一个数据、一个平台,方便、降低这个进入门槛、降低了进入门槛。可以有更多的数据科学家或者说开发人员,比如说:他以前熟悉SPARK的人,以前熟PYTHON的人,他以前用PYTHON作为他的一个数据,我们叫“大数据”的或者说数据分析的一个主要的编程语言的时候,他现在要上手用GPU,就会变得非常容易了。

  同期:就是你刚才说的,不管是数据库这一块、Machine Learning算法加速这一块,都有单独的GPU加速的这些很独立的各种不同的这种软件模块,但是现在我们搭了一个整个平台方便开发,而且用业界比较理解的,大数据科学家通用的这些PYTHON这种接口来给他们做。

  问:现在很多,比如说就像Jensen也讲了,现在很多这种research方面原来就一直在用GPU、超级计算机这些在用。像这种的话,它们其实是可以之前是基于CUDA做这些大的这些项目,所以说之后他们是可以用RAPIDS来做这些东西。

  答:RAPIDS我们等于是在CUDA上面,越往上封装你的可被调用、易使用性会越强。我们现在其实有了CUDA,或者说有了上面的这些framework,我们其实也还有合作伙伴,他追求某种性能的极致,他追求某种归能实现的极致,他也可能甚至还往底层去寻找API,或者寻找底层的这种编程。但是对百分之八十、九十的人来说,他们可能相对动通用性、对于这些东西没有那么高追求的时候。那么,他用RAPIDS会极大的降低他的开发成本,其实就是这么回答。

  同期:我们现在是提供了整个平台里面有多种库,一个是PYTHON做的类Pandas的API,也有CUDA C++库,甚至low level的CUDA Machine Learning原语这种level的这种操作,我们都可以给你调用,就是现在仍然可以用,只不过是我们这个平台它现在的受众是更广了。你可以这么理解,它的受众是更广了。所以很多数据科学家,他不会底层的CUDA编程,那么你用PYTHON API就可以了。

  问:我们可以预见到以后的数据,可能包括我们以后用互联网的时候,可能数据会越来越多,可能会有一个“数据爆炸”的时代,这也是市场导致的我们的数据会越来越多。是市场需求英伟达站出来做这个事情,还是说英伟达想要领导市场来处理这个数据爆炸行业的时代?

  答:其实我刚才借CSDN的那位朋友问的问题,我们就间接的回答了你的那个。两方面,一方面市场确实有这个需求。我们看到数据的数据量,包括应用复杂程度、算法的负责程度,对加速提出了越多的要求。我们真的有客户以前就问过我们,可能我们以前跟AI部门打交道比较多。人家看了说,Deep Learning支持的这么好,我们大数据部门什么时候支持一下。其实有这个类似的需求,所以我们也在积极的响应这种市场的需求。第二,其实我们刚才前面也讲了,我们很多的不是非绿色的框框,因为它们的技术的出现,包括这些社区跟我们之间的一些积极的合作,我们才在技术上实现变成可能,这是一个循序渐进的过程。到了这个时间点,我们这些很多的技术慢慢的都在成熟了。很多像APACHE ARROW的出现,像这种DASK的出现,慢慢这样一种并行化,像这种数据的这种格式更加适合在GPU里面进行运算,所以这个RAPIDS自然而然也就出现了。

  问:接下来RAPIDS平台针对开发人员的入驻,可能要提供哪些支持?

  答:RAPIDS的支持是跟我们英伟达一些开源软件支持一样,我们是可以在GitHub免费下载, 在GitHub通过标准的开源社区提供支持

  包括我们11月20号开始,在苏州的那个GTC,我们也会有专门的一个RAPIDS的Track。应该是一个一整天的吧?好像现在是一整天了,我们会有我们来自于英伟达的专家,包括:也有来自我们的一些合作伙伴的专家,大家共同去分享在RAPIDS上面的一些最新的进展。软件下载里面有很多文档都在里面,我们现在给我们所有的合作伙伴也在培训这个,我们的重点客户那地方在试用过程中碰到一些问题也会跟我们沟通。但是通用来讲的话,我们网站上也有一个大概的讨论支持论坛。大家可以看一下刚才我给大家展示的两个网页,一个是RAPIDS.ai,还有一个是Developer Blog。

  问:跟本土厂商合作计划这一块呢。

  答:目前我们只能讲的是,特别是我们这个团队,我们在接下来,这肯定是我们的重点工作,但是这些工作还在进行中。我们希望到GTC11月底在苏州的时候,我们那时候可以有一些合作,我们可以跟大家去分享。这个确实10月10号我们在刚刚发布的一个平台。

  问:我们这个是开源的,为了让大家更广泛的使用,我们对于社区这一块会有什么支持,或者是相当于培训的一些项目合作。

  答:目前我们还没有一个;刚才其实何萍已经某种程度上回答了这个问题了。我们会在所有的针对我们社区支撑的已有体系里面,我们会把RAPIDS的这一块内容可能会加进去的。当然有一些我们的一些服务对象,可能以前对英伟达的技术还不是太熟悉,所以这一块我们后续可能会加强这方面的支持。

  我们RAPIDS本身也是来自于GoAi的贡献者对我们Rapids也有很多贡献。我们也会不断的、因为这是开源的东西,我们有新的东西出来,也会不断的放到RAPIDS.ai上面,一旦有新的出来会不断的更新。

为您推荐

加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
热门排行

笔记本论坛帖子排行

最高点击 最高回复 最新
最新资讯离线随时看 聊天吐槽赢奖品