近年来,人工智能(AI)的研究突破简直成了大家司空见惯的现象。我们最为津津乐道的,大概是美国谷歌公司旗下的DeepMind团队研发的AlphaGo系统击败围棋世界冠军李世石那一次。这可是成为全球头条新闻的佳话;但在某种意义上说,这不是一场公平的斗争。李世石的大脑的能耗功率大约是20瓦,而其中只有一小部分用来下棋。相比之下,AlphaGo的能耗高达5000瓦之多。

这意味着,如果你不停地运行AlphaGo一年,那么单单电费就要花费大约6万元人民币。如果一年只有一个AlphaGo下棋,这点消耗貌似无所谓。但是,如果数十亿人都想在手机上运行人工智能,或是满街都在跑自动驾驶汽车,那这个能耗就不能等闲视之了。英国《新科学家》杂志2018年10月13日刊载了长文,介绍了这方面的发展趋势,点明了AI能耗问题的关键方面。

算得深,消耗多

人工智能耗电主要在哪些方面呢?荷兰阿姆斯特丹大学机器学习实验室主任Max Welling介绍说,目前流行的深度学习算法背后就是巨量的能耗。他说:“神经网络模型的层次越多、越深,消耗的能量也就越多。”举大家最常见的图像识别算法为例。常见的深度神经网络(DNN)模型就是通过训练模仿大脑的神经网络来完成图像的识别;要想识别一张小狗的图片,首层网络负责识别图像的边缘,结果传递到第二层,这一层会识别出简单的形状(比如狗的尾巴等),然后再传递到第三层...识别的需求越高,DNN的层数也就越多;比如,一个算法要想识别不同品种的狗,就要比仅仅识别出狗要复杂得多。

神经网络的复杂度可以通过网络中的参数数量来衡量。去年,谷歌公司Brain团队用稀疏门控混合专家层技术(Sparsely-Gated Mixture-of-Experts layer,MoE)创造了一个超大规模神经网络,其中包含的参数达到了 1370 亿个。该项目正是用于在谷歌的1000亿词语料库上构建机器翻译系统。

Welling教授介绍说,这种大型人工智能系统虽然整体能耗极高,但是分摊到每次AI计算的成本却很低——谷歌和脸书(Facebook)这样的大公司,能把每次运算成本控制在1分钱人民币左右。相反,手机、平板电脑之类的移动设备就承受不了这么高水平的运算。首先是电量不够,其次,也要防止设备过热。

所以,苹果手机上的智能助手Siri或亚马逊音箱的Alexa必须要连上网才能使用:手机或智能音箱的运算能力和存储空间都不足以支撑在本地完成AI运算。

也就是说,只有AI的能耗降下来,人工智能应用才能真正扩展。Welling说:“重要的是我们能够从每焦耳能量里挤出多少‘智能’。”

自动驾驶汽车的AI能耗困境

自动驾驶汽车是一个集中运用AI技术的前沿领域。从摄像头到雷达,这些智能设备不仅会给汽车增重,更大量消耗电力——据测算,AI处理器仅次于发动机,排在全车能耗的第二位。根据密歇根大学今年发表在《环境科学技术》期刊上的一项研究,自动驾驶汽车比传统汽车多消耗20%的能源。对于电动汽车而言,这是一个大问题,不仅增加了运营成本,而且会限制器运营里程。更重要的是,该研究假设AI处理器的能耗大约是200瓦——而当前的原型自动驾驶汽车的AI能耗超过2000瓦。对于使用人工智能直接取代人类司机的出租车公司来说,工资的节省可能远远超过能源成本的提高。但对于普通车主来说,这笔账恐怕就不太好算了。

如何提升AI的效率?

值得庆幸的是,人们已经在努力提高深度学习算法的效率,例如,通过消除计算中不必要的精度,降低了所需的运算量。麻省理工学院人工智能芯片开发团队的Avishek Biswas表示:“即使使用较少的数据量,我们也可以通过训练神经网络获得相同的结果。”许多大型科技公司也在开发用于运行AI的专用硬件,例如,Nvidia已经为自动驾驶汽车生产了一种芯片——尽管最新版本仍然有500瓦的能耗。采用全新的系统架构也能降低能耗:Biswas团队发现,数据在存储器和处理器之间往复传输消耗了大量能量,因此他们开发了一种用于智能手机的芯片,通过在存储器中执行运算,将能耗降低了约95%。所有这些尝试都实现了技术上的巨大进步。举例来说,AlphaGo的最新版本是AlphaGo Zero,运行4个张量处理单元(TPU),耗电量仅为400瓦。

全球AI能耗的隐忧

新芯片当然有个体节能方面的优势。可是,随着单个芯片变得更加节能,人们肯定会在更大范围内使用AI,这意味着全球AI系统的整体能耗还会越来越高。市场研究公司IDC称,预计2021年人工智能系统的全球支出将达到600亿美元。与此同时,另一家研究公司Gartner预测,到2022年,人工智能衍生业务的价值将达到4万亿美元——这将消耗多少电力?分析家们对此莫衷一是。

华为公司的信息技术能耗专家Anders Andrae说,AI的整体能耗难于估计,因为它们既耗能、也节能。举例来说,自动驾驶汽车引入智能系统当然会耗费更多能量,但是通过智能调度,多辆汽车可以按次序行进,减少了道路拥挤和通过路口的延时,这样在理论上又减少了整体的能源消耗。但是,这样的节能场景只会在大部分汽车都转为自动驾驶的情形下出现——正像微博、Facebook之类的社交网络只有达到足够的用户量才真正起飞一样。英国利兹大学的运输和能源研究专家Zia Wadud说:“在早期阶段,自动驾驶汽车不会产生节能效益。”何况,自动驾驶汽车里闲来无事的乘客还会利用时间浏览互联网或观看视频,Wadud认为这可能会使能耗再增加一倍。

不少分析家对“AI会带来能耗陡升”这个说法也有疑虑。他们的论据是,互联网诞生以来,尽管网络流量飙升,但是由于节能技术的不断发展,电力需求量并没有明显提高——事实上,目前计算机与互联网消耗的电力占到全球每年能源消耗的5%。但Anders Andrae表示,人工智能的能耗远超过普通的网络应用,我们已经没法像原先一样通过现有节能技术控制能耗。他估计,如果我们产生的数据量持续增加而没有大的效率提升,那么到2025年,信息和通信技术的能源消耗将占所有电力的20%,占所有碳排放量的20%。 “这可能造成非常大的问题,”他说。

当然,高能耗意味着高成本,所以代价如此高昂的技术不会被真正应用。换言之,人工智能的许多潜在用途如果需要太多能耗,就不会普及。另一方面,如果某项技术给大家带来了特别的便利,那么我们会不计成本地使用它。“我认为AI会创造出前所未有的海量数据,”Andrae说,“而如果数据就是金钱,人们就会更卖力地应用AI——从而消耗更多电。”

如果他的预言成真,AI在未来很可能导致电力消耗激增。除非我们的能源100%可再生,否则AI革命会成为全球变暖趋势恶化的同义词。

编译:AI三叠纪

参考来源:

https://www.newscientist.com/article/mg24031992-100-ais-dirty-secret-energy-guzzling-machines-may-fuel-global-warming/