世界智能制造,探索智能技术引领下的制造业未来
262
2023-10-30
机器学习技术日益发达,芯片制造商也开始跟上人工智能的脚步竞相开发新型芯片。本文选自《快公司》,作者 Steven Melendez 在文中讲述了机器学习与人工智能会碰撞出怎样的火花,芯片制造商又该如何应对。
近年来,随着机器学习技术的提高,计算机已经拥有了在图像中识别物体、“听”懂语音命令以及翻译文字信息等功能。
然而,虽然Apple的Siri或Google翻译能够实时执行命令,实际上如果让传统计算机来完成这些工具所依赖的复杂的数学建模,不仅会耗费大量的时间与能源,也需要更好的处理能力。因此,像英特尔公司、“图像动力厂” Nvidia 公司、移动计算首脑高通公司以及许多芯片制造类的创业公司都开始竞相开发能够让现代深度学习技术成本更低、效率更高的专门化硬件。
图:Nvidia 的特斯拉P100 GPU就是为高效能数据中心的应用和人工智能(AI)而开发的。
一些人工智能(AI)的研究者们说,人们可能不太理解这些专门为提高开发与撰写新型AI算法速度而设计的芯片的重要性。Nvidia 的 CEO 黄仁勋在11月的一次财报电话会议中谈及培训计算机执行一个新任务所需的时间时表示,“(需要的时间)肯定不是几个月,可能也就是几天的事,”他说,“本质上其实就是拥有了一个时光机。”
虽然 Nvidia 的工作大致在开发帮助游戏玩家以尽可能高的分辨率玩最新的射击游戏的显卡,该公司同样重视调整其图像加工单元芯片或GPU以适应严肃的科学计算与数据中心的数字处理。
Nvidia 的加速计算业务部副总裁兼总经理Ian Buck说,“在过去的10年间,我们已经将此前只用于图像中的GPU技术用到了更多更普遍的领域中。”
快速绘制视频游戏的图像与其它事实图像都依赖于能够执行特定类型的数学计算(例如矩阵乘法)并且可以同时处理大量基本计算的GPU技术。研究人员发现这些相同的特征对于具有相似算法的其它应用同样有用,包括气候模拟的运行和复杂生物分子结构的建模。
最近,GPU已经证明了其擅长于训练深层神经网络。该网络像是松散地建立在人类大脑中的数学结构,是现代机器学习技术的主力。与此同时,GPU同样严重依赖于重复的并行矩阵计算。
“深度学习技术就是因此而变得特别的:它需要大量密集型的矩阵乘法。”英特尔的人工智能解决方案副总裁兼总经理Naveen Rao说。Rao同时也是一家机器学习初创企业Nervana Systems的创始人兼CEO,该公司于今年早些时候被英特尔公司收购。“这(深度学习技术)就不同于只支持文字处理程序或电子表格的工作量。”
图形处理与人工智能在数学操作之间的相似之处使得 Nvidia 在竞争者中处于领先的地位。该公司报告称,截止10月31日的第三季度中,数据中心的收入同比增长了一倍以上,达到了2.4亿美元,这批增长很大一部分是因为深度学习技术相关的需求的增加。其他GPU制造商也很可能对新出现的产品需求感到兴奋。因为此前报道称,在台式电脑销售下降的背景下,GPU的销售量也出现了减少。如今,Nvidia 在GPU市场中占主导地位,拥有超过70%的市场份额。在过去一年中,随着其芯片新应用的诞生,其股市价格几乎翻了三倍。
显卡助力 AI 走向成功
在2012年一年一度的ImageNet大规模视觉识别挑战(一个著名的图像分类竞赛)中,一个参赛队伍首次应用了GPU驱动的深度学习并赢得了比赛,其成果也显然超越了前几年的获奖者。“他们所做的是将大约卡在70%精度范围内的东西提高到了85%的精度,”Buck说。
GPU系统俨然已经成为了数据中心为机器学习领域的公司提供服务时的标配。Nvidia 表示,他们的GPU已经被用于由亚马逊和微软公司所提供的机器学习云服务中。但 Nvidia 和其他公司也仍在研究下一代芯片,希望既能训练深度学习体系并且可以使用它们以实现更有效的信息处理。
最后,Graphcore公司(设在英国布里斯托的机器学习硬件创业公司)的CEO Nigel Toon表示,现有GPU的底层设计适用于图像处理而不是人工智能。他认为,GPU的局限性导致了程序员只能以特定的方式对数据进行组合,以最有效地利用芯片。但对于更复杂的数据来说,例如录制的视频或音频,可能不太容易做到。Graphcore公司正在开发其称作“智能处理单元”的芯片,Toon表示这是专门为深度学习而从头设计的芯片。他说:“希望我们能够做到摒除那些局限性。”
芯片制造商认为机器学习将受益于拥有并行荷载计算内核间快速连接的专用处理器,实现快速访问储存着复杂的模型、数据以及速度超过精度的数学运算的大容量存储器。Google在5月发布的在今年早些时候击败了围棋世界冠军李世石的AlphaGo就是由他们所称的“张量处理单元”的定制芯片所驱动的。英特尔在11月宣布,希望在未来三年内运用部分基于从Nervana收购的技术,推出非GPU芯片,以实现训练机器学习模型的速度比现今GPU芯片速度快100倍,并能够启用新型更复杂的算法。
Rao表示,“许多我们当前所看到的神经网络的解决方案在其硬件设计之中都有人工的成分。”由于储存器容量与处理速度的限制,这些人工部件可能会存在对复杂性的限制。
英特尔公司和它的许多竞争对手都正在为一个为便捷式硬件而不是数据中心训练与开发机器学习模型的未来做准备。市场情报公司Tractica的研究主管Aditya Kaul表示,这对于自动驾驶汽车这样的设备来说至关重要,这些设备需要对周围发生的事情做出快速反应,并且能够比将新输入的数据传到云端更快地从这些数据中学习。
“随着时间的推移,你将看到从云端到终端的转变,”他说。这就意味着小型、能源高效型的计算端需要优化机器学习,尤其是那些便携式设备。
“当你戴着耳机的时候,你肯定不希望在你的头上或者腰带上绑一块像砖一样大的电池。”加州圣马特奥市的机器学习创业公司Movidius的营销总监 Jack Dashwood 说。这家于9月被英特尔收购的公司为包括大疆无人机在内的多种设备提供计算机视觉中心处理器。
Nvidia 也打算继续发布GPU,以提高一些机器学习友好型功能的水平,例如快而低精度的算法,并增加对如自动驾驶汽车的下一代应用的AI平台的支持。电动汽车制造商特斯拉在10月宣布,其生产的所有汽车的自动驾驶计算系统中将会配备Nvidia的硬件,以支持其神经网络高效处理摄像头与雷达的数据。Nvidia 最近还宣布了向国家癌症研究所和能源部的合作行动提供硬件的计划,该行动是在联邦癌症Moonshot项目之下的对癌症及其潜在疗法的研究。
Kaul表示:“Nvidia 很早就发现了机器学习的这种趋势,这使得他们在之后的创新之中都将处于非常有利的地位。”
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~