以色列人工智能初创公司Run:AI在退出隐身模式后,希望以其1300万美元的资金投入其中,从而加快我们训练深度学习模型的方式。
这些资金来自今天宣布的1000万美元的A轮融资。它由Haim Sadger的S Capital和TLV Partners领导,此前获得了300万美元的种子资金。
Run:AI表示,它已经为深度学习设计了一个高性能的计算虚拟化层,它相信可以大大减少训练神经网络模型所需的时间。
这应该是有用的,因为神经网络是深度学习的基础,它是AI的子集,它模仿人脑的工作方式,并启用了诸如图像识别,自动驾驶,智能助手等技术。
问题在于,深度学习模型在投入使用之前需要进行彻底的培训。但是培训需要很长时间,因为它需要大量的图形处理单元或专用的AI芯片来处理用于“教学”模型的大量数据集。因此,该过程非常昂贵。结果,培训过程通常可能需要数周或数月才能完成,从而延迟了新模型的推出。
“传统计算使用虚拟化来帮助许多用户或进程有效地共享一种物理资源;虚拟化试图变得慷慨。” Run:AI的联合创始人兼首席执行官Omri Geller解释道。“但是,深度学习工作负载本质上是自私的,因为它需要相反的要求:对于单个工作负载,它需要多种物理资源的全部计算能力,而又不会抑制任何事情。传统计算软件无法满足深度学习工作负载的资源需求。”
为了解决这个问题,Run:AI表示,它已经构建了一个用于深度学习的全新软件堆栈,该堆栈可以通过将不同的计算资源虚拟化到一台计算机上来运行,该计算机具有能够相互并行工作的节点。
运行的关键:AI的软件堆栈是其“计算抽象层”,它使用基于图的并行计算算法来分析深度学习模型并将其拆分为较小的部分。然后可以并行运行模型不同部分的训练,从而加快了完成该过程所需的时间。
另外,Run:AI表示,其抽象层技术有助于避免底层硬件的随机存取存储器的局限性。这样就可以运行更大,更准确的模型,例如能够在图像中发现更精细的细节,而无需升级硬件。
Constellation Research Inc.首席分析师兼副总裁Holger Mueller表示:“ Run:AI是一家很有前途的初创公司,因为毫无疑问,深度学习需要与传统计算完全不同的堆栈才能有效运行。
Mueller说:“对于新的用例,重新考虑整个技术栈的机会很大。” “现在必须由Run:AI来证明在实际场景中的这些概念上的好处。”