计算机图形芯片制造商Nvidia Corp.宣布其人工智能和高性能计算基础设施即将支持基于Arm的中央处理器,从而为新型超级计算机铺平了道路。
该公司今天早些时候表示,其CUDA-X AI和HPC库,图形处理单元加速的AI框架以及软件开发工具将在年底前全部支持基于Arm的机器。该公司表示,这是重要的一步,因为基于Arm的超级计算机应具有更大的功率效率,从而能够实现更大的规模。
Nvidia首席执行官Jensen Huang(如图)说:“随着传统计算扩展的结束,功能将限制所有超级计算机。” “ Nvidia的CUDA加速计算与Arm的高能效CPU架构相结合,将使HPC社区的规模进一步扩大至百亿亿级。”这个术语指的是每秒可进行五百万次运算的计算机。
Nvidia总经理兼加速计算副总裁Ian Buck在新闻发布会上表示,支持Arm CPU的决定是由于对该行业的广泛兴趣和日益增长的兴趣而做出的。
“让Arm变得有趣的是它非常开放,” Buck说。“ [它为连接CPU和GPU并进行更节能的计算的新方法提供了灵活性。”
由于对基于x86和POWER的计算机芯片的支持,Nvidia的基础架构已被世界上25个最节能的超级计算机中的22个使用。通过对Arm芯片的额外支持,Nvidia希望扩大其在HPC领域的地位,以支持更高级的AI工作负载。
DGX SuperPOD,用于自动驾驶车辆培训
英伟达还在寻求将其超级计算能力扩展到特定的用例中,包括为自动驾驶汽车培训AI系统。
为此,它今天发布了被称为全球第22快的超级计算机DGX SuperPOD,以及为希望在自己或外部数据中心中部署它的公司提供的参考体系结构。
英伟达表示,DGX SuperPOD旨在提供部署大规模自动驾驶车队所需的AI培训基础设施。这款新机器仅用了三周的时间就建成了,它由96台Nvidia较旧的DGX-2H超级计算机组成,这些超级计算机使用新的数据中心互连技术进行了集成,该技术是该公司在今年初收购Mellanox Inc.时获得的。
该公司表示,DGX SuperPOD旨在训练自动驾驶汽车的神经网络,以便他们理解“道路规则”,并每秒提供9.4 petaflop或quadrillion浮点运算,这是处理能力的标准度量。官员们说,这真是太惊人了,其作用是使它可以将流行的图像分类ResNet-50 AI算法的训练时间从25天减少到不到2分钟。
Nvidia的AI基础架构副总裁Clement Farabet在一份声明中说:“ AI领导需要在计算基础架构中发挥领导作用。” “很少有AI挑战像训练自动驾驶汽车那样苛刻,这需要对神经网络进行数万次的训练,以满足极高的精度需求。”