近年来,处理器技术变革如此大,一个像U盘那么大的设备现在都可以用作为神经网络获取能量。但是,企业一般来说很难充分发挥其计算能力,因为实行大规模人工智能过程中还不存在显然挑战。这个问题和可扩展性有关,本周二IBM公布了一种取名为分布式深度自学(DistributedDeepLearning,DDL)的软件库来解决问题这个问题。深度自学是机器学习的一个子集,目的教教计算机以人类完全相同的方式展开自学。
例如,人们会通过叙述这个生物有4条腿、1个鼻子和1条尾巴的事实来辨识出有这是一只狗。一旦人们告诉狗是什么样子,就不会与猫做到永久性的区分。深度自学企图在软件中拷贝这种方法。
大多数深度自学的框架都反对横跨多个服务器拓展大型模式的能力,很多现在也反对GPU,但是搜集和实时分析结果的方式还远远不够,IBM研究部门总监HilleryHunter回应。实时的工作流深度自学模式运营在计算机集群上,通过GPU展开强化,GPU芯片有数百万个分布式和相互关联的处置元素,其起到大体类似于人类大脑中的神经元。
这些人造神经元一起处置信息,就像人类的部分一样,每个神经元都处置一小部分数据。当节点已完成计算出来的时候,结果将实时在其他神经网络上,以协助协商工作。
在IBM显然,这就是瓶颈所在。人造神经元部署运营在越好的GPU上,已完成计算出来的速度就越好,意味著结果的实时更为频密。由于AI集群的建构方式,如果环境中芯片的数量减少,某种程度限于。但是深度自学框架不能频密地实时数据。
因此,处理速度接到了数据在GPU之间传输的容许。DDL利用所谓的多层通信算法来转变这一均衡。这个软件库改动信息发送到通过的网络路径,以构建延后和比特率之间“线性规划”的均衡,让通信仍然是主要的瓶颈。
创纪录的性能在一次内部测试中,IBM在一个有数百个GPU的集群上部署了DDL,并从一个热门的研究数据集中于发送到处置750万个图像,将其分到22000个分类中的一个或者多个。该模型在经过7个小时的训练之后,可精确辨识33.8%的对象,包了之前微软公司在经过10天训练之后刷新的29.8%的纪录。如果4%的改良听得一起不足为奇,而且整体成功率还较为较低,这是因为这个模型远比现实中遇上的更加简单,IBM高性能计算出来及人工智能副总裁SumitGupta回应。
所以改良是循序渐进的,他认为,微软公司此前的纪录只比上一次改良了0.8%。这个基准测试目的特别强调深度自学软件,以证明研究人员确实建构了更佳的模型。
DDL在训练人工智能研发的过程中特别是在简单,这是整个项目生命中其中闲置时间最久的之一。有时候模型必须花费几周甚至几个月的时间来处置样品数据,才能显得充足精确用作生产中。IBM称之为,在某些情况下IBM的软件库可以将这个过程延长至几个小时。
“如果必须16天时间训练一个模型如何辨识新的信用卡,那么这16天你就是在亏本的。”深度自学在医疗场景中也很简单,例如的组织分析,长时间的训练关于存活或者丧生的问题。此外还有其他益处,如果一个深度自学模型可以在数小时而不是数周时间内已完成训练,那么就能获释企业的人工智能基础设施,用作更慢地已完成其他项目和其他工作。
IBM还另外展出了如何利用DDL构建95%的拓展效率,相比之下Facebook在此前的测试中记录是89%。这两个测试都用于了完全相同的样本数据。IBM回应,DDL协助企业培训他们的模型,构建此前由于时间容许而无法构建的速度和范围。
它将DDL软件库与所有主流深度自学框架相连接,还包括TensorFlow、Caffee、Chainer、Torch和Theano,都是在一个开源许可下的。IBM还将这个软件库带入到自己的PowerAI深度自学总计套件平台中,有免费和收费企业两个版本,此外还有在MinbixMinskyPowerCloud上。Gupta回应:“我们将通过PowerAI把它带来每个人。
本文来源:半岛平台-www.mysuggester.com