【摘要】 人工智能的运转需要全球10%用电量 还威胁气候变化?
目前,业界就人工智能巨大的能源需求发出了一些可怕的警告,称其为气候变化的下一个大威胁,但新的芯片技术,甚至人工智能本身,都可能有助于控制人工智能的电力消耗。
在最近于旧金山举行的一次会议上,半导体行业大型供应商Applied Materials的首席执行官加里·迪克森(Gary Dickerson)发表了一个大胆的预测。他警告称,由于材料、芯片制造和设计方面缺乏重大创新,到2025年,数据中心的人工智能运转可能占全球用电量的十分之一。
今天,世界上数以百万计的数据中心所占用的用电量还不到2%——这个统计数据包含了在它们庞大的服务器阵列上处理的各种工作负载。Applied Materials估计,运行人工智能的服务器目前只占全球电力消耗量的0.1%。
其他的科技公司高管也发出了警告。华为的安德斯安德烈(Anders Andrae)认为,到2025年,数据中心最终可能消耗全球十分之一的电力,不过他的估算涵盖了数据中心的所有用途,而不仅仅是人工智能。
落基山研究所的特别顾问乔纳森·库米(Jonathan Koomey)则相对乐观。他预计,尽管人工智能相关活动呈井喷式增长,但数据中心的能源消耗在未来几年仍将保持相对平稳。
这些大相径庭的预测突显出,人工智能对大规模计算未来的影响以及对能源需求的最终影响存在着不确定性。
毫无疑问,人工智能电力消耗非常大。训练和运行像深度学习模型这样的东西需要处理大量的数据,因而占用内存和处理器。人工智能研究机构OpenAI的一项研究表明,驱动大型人工智能模型所需的计算能力已经每三个半月翻一番。
Applied Materials自己也承认,它的预测是一种最糟糕的情况,意在突出缺乏软硬件新思维可能会造成的状况。该公司的企业战略和市场情报主管桑迪普·巴吉卡尔(Sundeep Bajikar)表示,公司假定,随着时间的推移,被用来训练人工智能模型的信息组合将会发生改变,相对于文本和音频信息,视频和其他图像的占比将会攀升。视觉数据的计算量更大,因此需要消耗更多的能量。
随着自动驾驶汽车和嵌入其他智能设备的传感器等设备的兴起,人工智能模型还将要处理有更多的信息。超高速5G无线连接的普及,将使得数据更容易在数据中心之间传输。
巴吉卡尔指出,这些趋势和其他的趋势突显出,业界迫切需要为人工智能时代带来材料和制造技术方面的创新。一些研究人员认为,人工智能极大的电力消耗甚至可能变成一个重大的环境问题:马萨诸塞大学阿姆赫斯特分校的研究小组最近发表的一项研究显示,训练几款受欢迎的大型人工智能车型,所引发的废气排放量几乎是美国汽车使用寿命期内的平均排放量的五倍。
但悲观的预测忽略了几个可能限制人工智能电力消耗的重要进展。其中之一是由Facebook和亚马逊等公司开创的“超大规模”数据中心的兴起。
这种数据中心使用大量专门为特定任务定制的基本服务器阵列。这些机器比传统数据中心的服务器更加节能,因为后者需要处理更广泛的功能。当前向超大规模数据中心的过渡,再加上冷却和其他技术的进步,是过去几年新数据中心的能源消耗基本上被运转效率提高所抵消的一个重要原因。
新型微芯片也会有所帮助。Applied Materials的预测假定,人工智能的工作负载将继续在现有硬件上运行,这些硬件的效率在未来几年将会逐步提高。但许多的初创企业以及英特尔、AMD等大公司,都在开发利用光子学等技术的、节能性大幅提升的半导体,来驱动神经网络和其他的人工智能工具。
库米表示,危言耸听的预测也忽略了一点:对于某些类型的人工智能任务,比如模式识别,模型提供粗略输出结果就足够了。这意味着能量不需要将计算结果扩展到小数点后数百位。
具有讽刺意味的是,对人工智能功耗限制贡献最大的实际上可能是人工智能本身。谷歌已经在使用其2014年收购的DeepMind开发的技术,来更有效地冷却它的数据中心。通过向人类操作员提出建议,人工智能已经帮助该公司削减了40%的冷却费用;现在它能有效地独立运行数据中心的冷却系统。
人工智能还将用于优化数据中心运营的其他方面。而且,就像谷歌在冷却方面的成果一样,这将使得各类工作负载受益。这并不意味着,数据中心最终不会因为对人工智能魔法的需求不断增长而消耗更多的能量,但这是当下做出预测如此困难的又一个原因。(网易智能/乐邦)