香港脉搏www.etnetchina.com.cn
 理财/管理智城物语
打印logo打印本文章电邮logo字体:
分享:
ChatGPT变吃电巨兽!生成式AI用电量够荷兰用一年?
方展策
作者:方展策评论评论:点击率点击率:

发表时间: 2023-10-17 12:42:08

作者介绍

少年时,曾研习 Geographic Information System,可惜学无所成,侥幸毕业。成年后,误打误撞进入传媒圈子,先后在印刷、电子、网络媒体打滚,略有小成。中年后,修毕信息科技硕士,眼界渐扩,决意投身初创企业,窥探不同科技领域。近年,积极钻研数据分析与数码策略,又涉足 Location Intelligence 开发项目;有时还会抽空执教鞭,既可向他人分享所学,亦可鞭策自己保持终身学习。

   ChatGPT这类生成式AI现已从“民间玩意”蜕变为“生产力工具”。最近各家大企业争相引入生成式AI,藉此简化业务流程,提升营运效率,但此举背后可能会为自然环境带来很大负担。有专家预估,到2027年AI服务器年均耗电量将会相当于荷兰全国一年的用电量,故此呼吁企业在设计AI软硬件时应考虑电力消耗,以减低碳排放。


AI、云端荣景背后隐藏环境危机


   市场研调机构International Data Corp预测,及至2026年,全球企业对AI支出将会逾3,010亿美元(约2.35兆港元),复合年增长率达到26.5%。另一市调机构Synergy则指出,2022年企业对云端服务的总支出已达2,270亿美元(约1.77兆港元),估计在AI应用需求的带动下,往后年均增长率将高达42%。然而,在这一片经济荣景背后,却隐藏了极大的环境危机。


   荷兰阿姆斯特丹自由大学商业及经济学院博士候选人亚历克斯·德弗里斯(Alex De Vries),创建数码经济分析平台“Digiconomist”,从经济角度揭示数码科技发达所带来的意想不到问题。他于2023年10月发表一篇题为《持续成长的人工智能能源足迹》(The Growing Energy Footprint of Artificial Intelligence)论文,预测到2027年AI的电力使用可能等同于荷兰、瑞典等国家一年的耗电量(约85至134 TWh)。


ChatGPT每日用电量564 MWh


   一般来说,生成式AI的电力消耗主要来自两方面:训练构成AI系统核心的大型语言模型时所需的电力,以及大型语言模型执行逻辑推论(Inference)运算时的能耗。德弗里斯指出,AI日常运算消耗的电力,已远超训练模型时所用的电量。


   根据半导体研究机构SemiAnalysis的资料,ChatGPT要依靠3,617台NVIDIA HGX A100服务器、28,936颗GPU来支撑日常运作。德弗里斯以为基础,计算出ChatGPT每日用电量为564 MWh,至于GPT-3模型训练期间的耗电量则为1,287 MWh;换言之,ChatGPT运作3天所消耗的电量,已超过整个数据训练阶段了。故此,ChatGPT可说是一只“吃电巨兽”,能够产生大量碳排放。


OpenAI从来没有透露ChatGPT的用电量,于是Alex de Vries基于NVIDIA A100服务器的预计销量,推算ChatGPT的电力消耗。(图片来源:Unsplash图片库)


Alex De Vries估计,Google全面推出生成式搜寻后,其AI所用电力可能高达27.4 TWh,接近爱尔兰一年耗电量(29.3 TWh)。(图片来源:Google官网)


生成式搜寻普及AI耗电量将激增


   当微软(Microsoft)、Google逐步把生成式AI整合至旗下的搜索引擎,这个能耗问题将会变得更加严重。加拿大永续数码基础设施公司QScale指出,生成式AI每次回答提问所需的运算力,是一般搜索引擎的4至5倍,相对应的电力消耗也会更高。假如日后Google全面推出其生成式搜寻服务(Search Generative Experience),AI耗电量和碳排放量可能会以几何级数上升。


   有鉴于此,德弗里斯呼吁IT企业在开发AI软硬件时,应要考虑背后的环境破坏。事实上,有专家已尝试从算法着手,降低AI运算的能耗。譬如说,AI可以利用“加法”或“乘法”,算出“10”的数值,惟前者需计算10次,后者则仅需计算1次,所以透过乘法取代加法的方式编写算法,就可以提高运算效率,兼且更加省电。


加州立法强制企业披露碳排放量


   再者,有科技业者提出,引入基于第三代半导体氮化镓(GaN)设计的电源供应器,取代传统电源供应器,以提升AI服务器的能效表现和功率密度。假如一座数据中心转用氮化镓电源供应器,功率耗损可以减少达50%,以数据中心平均用电量换算,相当于减省370亿kWh的电量,足以供应40座大规模数据中心一年的电力需求。


Google在美国本土拥有14座数据中心,为Google Search、以及其生成式AI模型Bard和LaMDA提供运算力。(图片来源:Google官网)


   另一方面,监管机构亦应针对AI产业制定具体的环境披露要求,让AI技术的环境成本变得更透明。美国加州于2023年9月通过《企业气候数据责任法案》,规定有加州业务、全球年收入逾10亿美元(约78亿港元)的大企业,到2026年必须揭露公司营运产生的碳排放量,到2027年更必须披露供应链中产生的碳量。因此,总部设于加州的OpenAI、Google等AI业者未来不得不在节能减排方面多下工夫了。


   《经济通》所刊的署名及/或不署名文章,相关内容属作者个人意见,并不代表《经济通》立场,《经济通》所扮演的角色是提供一个自由言论平台。

分享:
返回智城物语
上传图片
仅支持JPG、GIF、PNG图片文件,且文件小于5M
 
评论只代表会员个人观点,不代表经济通立场 
登录 后发表评论,立即 注册 加入会员。
 (点击用户名可以查看该用户所有评论)  只看作者评论  查看全部评论:↑顺序 ↓倒序
  • 暂无读者评论!
评论只代表会员个人观点,不代表经济通观点
登录 后回复评论,立即 注册 加入会员。
发表评论 查看全部评论: ↑顺序  ↓倒序
  • 财金博客
  • 理财/管理
  • 健康人生

  • 时尚艺术
  • 吃喝玩乐
  • 全部
  • 财金博客
  • 理财/管理
  • 健康人生

  • 时尚艺术
  • 吃喝玩乐
  • 全部
more on Column 
新  一个月内新增栏目