loading...
发表时间: 2023-05-15 11:53:35
少年时,曾研习 Geographic Information System,可惜学无所成,侥幸毕业。成年后,误打误撞进入传媒圈子,先后在印刷、电子、网络媒体打滚,略有小成。中年后,修毕信息科技硕士,眼界渐扩,决意投身初创企业,窥探不同科技领域。近年,积极钻研数据分析与数码策略,又涉足 Location Intelligence 开发项目;有时还会抽空执教鞭,既可向他人分享所学,亦可鞭策自己保持终身学习。
生成式AI绝对是当今科技界的最热门话题,ChatGPT爆红后,多家公司争相推出类似产品,逐渐应用于各行各业。但愈来愈多人担心,当AI全面普及后,会加剧假信息流窜,网上诈骗等问题;甚至有“AI教父”之称的谢菲·辛顿也担心AI变得太聪明,恐怕会进化成杀手机器人,最终可能导致人类灭亡!究竟AI技术所带来的负面影响可以有多大?全球政府该如何应对AI的潜在威胁呢?
神经网络是ChatGPT奠基技术
51年前,谢菲·辛顿(Geoffrey Hinton)当时尚未获“AI教父”的称号,以研究生身份进入苏格兰爱丁堡大学,开始对人工神经网络(Artificial Neural Network)进行研究。所谓“人工神经网络”,是一种模仿生物神经网络(尤其是大脑)结构和功能的数学模型,能够透过分析数据来学习技能。这正是OpenAI ChatGPT与Google Bard背后的奠基性技术。
“AI教父”辛顿辞掉Google的职务后,不用担心自己的言论会给Google带来伤害,因此四出接受不同媒体的采访,说出自己的心里话:“AI可能会导致人类灭亡。”(图片来源:多伦多大学官网)
2012年,辛顿与其得意门生伊利亚·苏茨克维尔(Ilya Sutskever)、亚历克斯·克里舍夫斯基(Alex Krishevsky),创建了一个神经网络系统,藉由分析数千张相片,自行学懂识别花朵、狗只、汽车等常见事物,成功实现深度学习(Deep Learning)运算。随后,辛顿与两名学生基于此项研究项目,成立初创公司DNNresearch。
2013年,Google以4,400万美元(约3.43亿港元)收购DNNresearch,辛顿亦随之而加入Google,担任副总裁兼工程研究员,负责Google Brain的部分研究工作。其门生苏茨克维尔则选择离开Google,与志同道合者共同创立OpenAI,并出任首席科学家,领导研究团队成功开发出GPT模型和ChatGPT。
辛顿的得意门生苏茨克维尔师于2015年放弃Google的高薪厚职,与奥特曼等人携手创立OpenAI,并主导了GPT和DALL-E模型的研发。(图片来源:多伦多大学官网)
后悔毕生工作只因担心AI危害
2018年,辛顿跟加拿大满地可大学教授乔舒亚·本希奥(Yoshua Bengio)、Meta首席AI科学家杨立昆(Yann LeCun)共同获得有“计算机界诺贝尔奖”之称的图灵奖(A.M. Turing Award),以表扬他们对神经网络和深度学习方面的伟大贡献。因此,后来3人被称为“AI教父”或“深度学习教父”。
差不多在同一时间,Google、OpenAI开始建立以神经网络为架构的大型深度学习系统,成为日后Bard和ChatGPT的发展基础。由此看来,辛顿对造就目前生成式AI的荣景,扮演着重要角色。
然而,在当今的AI盛世,辛顿却在2023年4月突然从Google离职,震惊整个AI业界。辛顿解释,他之所以离开Google,是为了畅所欲言地谈论AI的潜在风险,而不会对Google造成伤害。谈及50年来致力于神经网络研究,他坦言:“我对自己的毕生工作感到十分后悔。”
辛顿指出,互联网上将会充斥着愈来愈多由AI生成的虚假文本数据、相片、甚至影片,但一般人却无法分辨真伪。再者,AI技术迟早会完全颠覆就业市场,导致愈来愈多工作职位消失。更叫人担心的是,目前用户不但可以指示ChatGPT生成程序代码,还可以要求AI执行这些程序代码;如此发展下去,在科幻电影中经常出现的AI杀手机器人,终有一天会成为现实。
AI毁灭人类并非完全不可能?
当然,以上悲观的未来情境只是一个假设,但辛顿强调,可能会导致它成真的情况经已出现:微软(Microsoft)与Google之间、甚至中国与美国之间,已开始针对AI技术展开全球竞赛。大部分人以为由AI主宰万物的未来距离还很遥远,但他认为AI或许不用30至50年的时间,便能够操控人类,甚至找到办法杀死人类,最终可能会导致人类灭亡。
一直以来,辛顿强烈反对将AI应用在战场上。1980年代,辛顿在美国卡内基梅隆大学担任计算机科学教授,但因为不满大学AI研究接受美国国防部赞助,所以决定离开美国,改往加拿大多伦多大学计算机科学学院任教。他指出,假如没有某种全球性的规管协议或监管机制,这场AI军备竞赛将会愈演愈烈。
由是之故,辛顿认为AI对人类造成的威胁可能比气候变迁更迫切,因为解决气候变迁的方法很明显,只要减低碳排放或实现碳中和便成,然而目前对于AI危机却不知该从何着手。尽管AI可能对人类构成生存威胁,但他却不同意暂停AI研究,因为始终不能抹杀AI的优点和应用价值。辛顿相信,更好的做法是加强对AI的监管,并让所有人意识到AI的潜在危害。
OpenAI共同创办人兼执行长山姆·奥特曼(Sam Altman)也承认,ChatGPT已经出现一些他们无法解释的推理能力,而且AI毁灭人类并非完全不可能。但他表示,自己已为ChatGPT装设终止开关(Kill Switch),假如未来某一天ChatGPT的发展超出人类预期,便会立即按下开关停止运作。
OpenAI执行长奥特曼被外界称为“ChatGPT之父”,但最近他也表示对自家孩子的潜力感到“有点害怕”,甚至承认AI确实有一定的可能性会毁灭人类。(图片来源:维基百科)
奥特曼坦承,ChatGPT在选举和散播假讯息方面的影响力令人担忧,因此2024年的美国总统大选将会是OpenAI的观察重点。(图片来源:Pexels图库网站)
“无知之幕”促成AI正确价值观
不过,按下关机键之前,我们可以先尝试向AI灌输正确的价值观,例如要帮助最需要帮助的人,不能毁灭人类等。Google旗下DeepMind于2023年4月在《美国国家科学院院刊》发表的论文提出,可以用政治哲学家约翰·罗尔斯(John Rawls)的观点来教导AI做人。
罗尔斯曾提出一个叫做“无知之幕”(The Veil of Ignorance)的概念,旨在群体决策时,可以实现最公平的权益分配。根据其著作《正议论》所述,假设一群人站到一块布幕的背后,所有人瞬间都会失去记忆,变得无知,忘记了自己在现实社会中的身份和地位。
政治哲学家罗尔斯假设人们身处在“无知之幕”后面(左),就会对自己所拥有的技能、身份和地位一概不知。在此情境下,人们会倾向选择对所有人都最公平的权益分配原则。(图片来源:维基百科)
这时候,要求这群人以投票方式为社会选择一个运作原则。由于他们不知道自己在这个社会中究竟处于哪个位置,所以不能以利己方式做决定,只能遵循对所有人均公平的原则来判断。情况就好像是,在生日会上由你负责切蛋糕,因为你不知道自己会分到哪一块,于是会尽量把每一块都切到一样大。在“无知之幕”之下,跟个人利益无关的公平正义便会浮现出来。
由是之故,DeepMind认为,把“无知之幕”套用在AI训练,可能有助于促进AI与人类价值观在“对齐”过程中的公平性。所谓“对齐”,意指将AI的愿望与人类的愿望达成一致。如果AI与人类拥有共同的公平价值观,AI就不会有毁灭人类的意图了。
白宫召见科技巨头讨论AI威胁
不过,即使AI无意消灭人类,仍可能对人类社会带来众多负面影响。美国科技伦理组织人工智能与数码政策中心(CAIDP)向联邦贸易委员会(FTC)投诉,OpenAI旗下最新大型语言模型GPT-4存有偏见和欺骗性,而且对私隐与公共安全构成风险。
CAIDP列举GPT-4可能衍生的潜在威胁,包括:帮助黑客大量产制恶意代码,令网络攻击加剧;带偏见的AI训练数据可能加强社会刻板印象,让各种族和性别容易受到不公平的待遇,因此要求FTC对OpenAI展开调查。FTC主席莉娜·汗(Lina Khan)表示,现正在密切监察AI的使用情况,并强调“它们不能脱离现有法例规管,联邦贸易委员会将积极执法。”
OpenAI为求让GPT-4更安全,于是聘请50名专家和学者,针对谎言、语言操纵、危险的科学常识等层面,对GPT-4进行了测试。图中为OpenAI总部。(图片来源:维基百科)
生成式AI所掀起的巨大社会争议,同样引起了美国白宫的警惕。2023年5月初,白宫邀请了Google 执行长皮查伊(Sundar Pichai)、微软执行长纳德拉(Satya Nadella)、OpenAI创办人奥特曼、以及人工智能初创Anthropic创办人阿莫迪(Dario Amodei)出席会议,讨论AI可能对社会带来冲击。
与会的政府官员包括:副总统贺锦丽(Kamala Harris)、拜登幕僚长津茨(Jeff Zients)、国家安全顾问苏利文(Jake Sullivan)、美国家经济委员会主席雷纳德(Lael Brainard)、以及商务部长雷蒙多(Gina Raimondo)。美国总统拜登(Joe Biden)也有出席这次会议。
欧盟将通过全球首套AI监管法
贺锦丽表示,生成式AI虽然有助改善生活,但亦可能带来安全、私隐和诈骗问题。她指出,AI企业有道德和法律责任来确保AI产品的安全,同时又必须与政府合作,以保护公民权利与私隐。她强调,白宫将致力于推进潜在的新法例和支持新立法,以减轻AI技术的潜在危害。
相较之下,欧洲在AI立法上已先行一步。欧洲议会公民自由和消费者保护委员会于2023年5月11日以压倒性票数通过一份立场文件,呼吁限制欧洲的AI使用方式,向通过全球首套AI监管法案迈出关键第一步。相关法案草案将于同年6月提交欧洲议会全体表决,随后欧洲议会、欧盟理事会、欧盟执行委员会代表将在三方会谈中拟定法案最终条款。
欧洲议会通过了一份立场文件,加强对生物辨识、人脸识别、以及警察在例行职务中使用AI的限制。议会认为,此举有助于催生出全球首套AI监管法案。(图片来源:维基百科)
另一方面,白宫宣布,Google、Microsoft、OpenAI、NVIDIA、Stability AI、Anthropic与Hugging Face均承诺参加2023年8月举行的计算机安全会议“DEF CON 31”,让旗下AI模型接受黑客和AI专家的测试和评估。专家们会尝试找出AI工具中的错误、故障和漏洞,以便AI公司及早解决模型中的既有问题。
可是,这些AI公司只是同意进行一次性测试,而不是承诺在推出或改进产品时展开持续性评估,因此可能不足以满足监管机构的要求。尽管如此,DEF CON 31仍被视为AI模型接受公开评估的第一步。希望在立法监管和公开评估两方面各自迈出重要的第一步后,可让生成式AI列车驶向正途,让每个人都能安全地从技术创新中受益。
DEF CON是全球最大的计算机安全会议之一,与会者除网络安全专家和黑客外,还有美国联邦调查局、国防部、邮政检查局的职员。会议涉及领域包括软件安全、计算机架构、硬件修改、以及其他容易受到攻击的信息领域。(图片来源:DEF CON官网)
《经济通》所刊的署名及/或不署名文章,相关内容属作者个人意见,并不代表《经济通》立场,《经济通》所扮演的角色是提供一个自由言论平台。