loading...
发表时间: 2023-05-30 11:49:16
少年时,曾研习 Geographic Information System,可惜学无所成,侥幸毕业。成年后,误打误撞进入传媒圈子,先后在印刷、电子、网络媒体打滚,略有小成。中年后,修毕信息科技硕士,眼界渐扩,决意投身初创企业,窥探不同科技领域。近年,积极钻研数据分析与数码策略,又涉足 Location Intelligence 开发项目;有时还会抽空执教鞭,既可向他人分享所学,亦可鞭策自己保持终身学习。
由ChatGPT催生的生成式AI热潮风靡全球,虽然创造了商机,但也衍生出不少乱象,迫使全球政府思考如何平衡AI的创新和规管;当中以欧盟与加拿大的立法行动尤为积极,着眼于推出强力法规。当业界担心过度监管或会窒碍AI产业的成长之际,OpenAI执行长奥特曼竟然跳出来高喊政府要介入监管,更呼吁成立类似国际原子能总署的权威机构为产业制定规则。为什么奥特曼如此高调表态支持立法监管呢?究竟欧盟与加拿大的AI法案又有多严厉呢?
参议员:不可错过规管AI机会
2023年5月16日,美国国会针对AI监管的听证会,由参议员李察·布鲁门萨尔(Richard Blumenthal)的发言揭开序幕。但有趣的是,他发言时嘴巴并没有动,原来他正在播放一段由AI生成的录音——讲稿是由ChatGPT产制,然后用计算机合成他的声音输出成录音档。布鲁门萨尔的做法是要凸显生成式AI带来的潜在风险,以及要受到监管的必要性。
美国参议员布鲁门萨尔在听证会上播放一段由AI生成、酷似其话音的演说录音。他表示,AI能够制作出如此逼真的录音真是太神奇了,惟潜在威胁却同样可怕。(图片来源:Twitter@SenBlumenthal 账户)
参议院司法委员会委员祖殊·霍利(Josh Hawley)警告,生成式AI可能是人类历史上其中一项最重要的科技发明,但也有可能会产生像原子弹般的严重后果。资深参议员迪克·德宾(Dick Durbin)亦指出,当下AI爆红跟20年前社交媒体崛起的情况非常相似,惟当年美国政府却选择不干预社交网站发展,以致近年问题丛生却难以管制,所以绝不能重蹈覆辙,错过监管AI的机会。
参议员德宾指出,当年美国政府错过监管社交媒体的机会,不希望在如今的AI盛世也犯上同样错误。(图片来源:Twitter@SenatorDurbin 账户)
面对如此严厉的质询,获邀出席听证会的OpenAI共同创办人兼执行长山姆·奥特曼(Sam Altman)却出乎意料地配合,甚至主动要求政府立法监管行业。他认为,即使AI可以帮助人类解决很多问题,但也可以强大到用难以预测的方式改变社会,而政府监管正是降低风险的关键。
OpenAI执行长奥特曼(右)出席国会听证会时,表现得非常配合,甚至多次主动要求政府监管介入,因此与包括布鲁门萨尔(左)在内的参议员相处融洽。(图片来源:Twitter@SenBlumenthal 账户)
OpenAI提出AI监管3大建议
针对政府应如何监管AI产业,奥特曼似乎是早有准备,即席提出3项建议:
第一、建立一个新的政府部门,专责为AI的大型语言模型颁发许可证;假如发现有AI模型或公司不符合政府标准,该部门有权撤销其许可证。
第二、为AI模型制定一套安全标准,评估其危险性。根据这套标准,AI模型必须通过安全测试,譬如有没有“自我复制”或“向外渗透”的能力,以验证它们是否懂得自主行动,不受人类控制。
第三、寻找独立专家对AI模型各种指针上的表现作出独立审查。
但对一些最具争议性的问题,奥特曼却没有正面响应。譬如AI模型的数据训练过程是否要透明化,并详细列出训练数据的来源;又例如AI应否使用版权作品进行数据训练,而AI公司该如何补偿相关的版权持有人等,他都避而不谈。
网民:立法监管有利于OpenAI
尽管如此,奥特曼在听证会上表现出来的合作态度,已让一众国会议员们非常满意。相比起早前Meta执行长马克·扎克伯格(Mark Zuckerberg)出席听证会时,与议员之间剑拔弩张的氛围,奥特曼明显受到较友好的对待。基本上,议员们没有批评OpenAI的做法,而是客气地征求奥特曼对AI监管的意见。毕竟,以往几乎没有科技公司高层主动要求政府监管行业。
然而,不少人对奥特曼的建议却不太认同。有网民认为,OpenAI占据业内领先位置的当下,积极呼吁政府插手监管,可能会对其他公司构成不利的竞争环境。更有AI研究人员指出,这其实是一种反竞争行为,因为获颁许可证才能进入市场的做法,可能会难倒小公司,最终只会让AI技术集中在少数大型企业手上。
奥特曼建议,日后AI公司要进入市场,必须获得监管部门颁发许可证。但有AI研究人员质疑,此建议只对大企业,对小公司或研究人员却非常不利,其实骨子里是一种反竞争行为。(图片来源:Twitter@sama 账户)
面对外界众多质疑,奥特曼依然坚守其引入监管的立场。2023年5月22日,奥特曼跟另外两位OpenAI创办人:董事长布格雷格·布罗克曼(Greg Brockman)、首席科学家伊利亚·苏茨克维尔(Ilya Sutskever),在公司官方网志联合发文,提出需要有像国际原子能总署(International Atomic Energy Agency,IAEA)的权威机构,对AI产业加以规范,包括检查AI系统、测试是否符合安全标准、限制部署程度及安全级别等。
奥特曼表示,支持成立为AI制定规范标准的国际机构,更指出各国政府在监管核武器方面已有先例,国际原子能总署正是最佳例子。图中为该机构的维也纳总部。(图片来源:维基百科)
创立于1957年的国际原子能总署是联合国附属组织,对国际核能问题进行监管,并施加压力,旨在促进核能技术和平发展。2005年,IAEA因防止核能被用于军事目的,并确保全球和平与安全地使用核能,因而获得诺贝尔和平奖。纵然这类监管机构有时可能无法直接介入某些极权国家的相关问题,惟起码可以制定国际标准与协议,对落实全球AI监管可说是关键起步点。
Bard跳过欧洲与加拿大避监管
相较于OpenAI拥抱立法规管的取态,其竞争对手Google似乎选择了回避。2023年5月10日,Google在I/O开发者大会上发表升级版的聊天机械人Bard,并宣布在全球180国家陆续上路。但有趣的是,Google竟然刻意跳过欧洲与加拿大,暂时不会开放Bard给这两个地区使用,这可能是考虑到当地监管法例过于强力。
欧洲经常处于新科技监管的前沿。早于2021年,欧盟执委会已提出《人工智能法》(Artificial Intelligence Act,AIA)草案,目的是平衡AI所带来的好处和对社会造成的负面冲击。根据草案,AI系统可按照其风险程度划分为4个级别,并施以不同程度的监管方式。
欧盟执委会在2021年提出《人工智能法》草案,若通过立法,将会是世上第一部全面监管AI的法例。(图片来源:欧盟执委会官网)
第一级为“不可接受风险”(Unacceptable Risk)”的AI:例如运用潜意识技术操控人类,在公共场合使用生物辨识系统进行执法、或被政府用作对公众进行社会评分的AI系统,原则上在欧盟境内禁止使用,更不能进入欧盟市场。
第二级为“高风险”(High Risk)的AI:举凡可能造成人身安全或基本权利负面影响的AI系统均在此列,例如水、电、交通等基础设施的监控系统,用于招聘流程的履历分类软件、辅助执法行动的智能工具等。这类AI进入欧盟市场前需进行符合性评估(Conformity Assessment),合格后始能上市;进入市场后,仍需持续监控其符合性。
触犯欧盟AI法例罚6%营业额
第三类为“低度风险”(Low Risk)”的AI:意指存有特定欺瞒风险的AI,譬如深伪技术(Deep Fake)制图工具、与人互动的聊天机械人。由于它们具有身份诈欺的风险性,所以操作时必须保持透明,确保用户对其个人资料被搜集和利用之事有充足的认知。
第四级为“风险极小”(Minimal Risk)的AI:意指现行法例能够妥适因应的风险,因此欧盟不予以额外规范。基本上,欧盟对这类AI的供货商没有强制性规定,只会鼓励业者自愿建立和遵守行为准则(Codes of Conduct)。如有违反《AIA》的公司,最高罚款为3,000万欧元(约2.5亿港元),或全球年度营业额的6%,两者取其高者。
2023年4月27日,欧洲议会成员就《人工智能法》草案达成临时政治协议,要求生成式AI供货商必须披露,用于AI模型数据训练的数据版权来源。在这项新规定下,网上出版商和内容创作者有望得知其版权内容在多大程度上被用作训练AI模型,从而可以向OpenAI、Microsoft、Google等AI公司索取补偿。
2023年5月11日,欧洲议会公民自由和消费者保护委员会通过一份规管AI的立场文件。该文件基于《AIA》草案再作进一步增补,加入对生物辨识监控、情绪辨识、以及预测性警务AI系统的禁令。相关草案预计于同年6月提交欧洲议会全体表决,然后交由欧洲议会、欧盟理事会、以及欧盟执行委员会代表在三方会谈中敲定最终条款。一旦法案获得全面通过,将会成为世上第一部综合性AI法例,预计将产生全球性影响。
违反加拿大AI法案可判处监禁
另一边厢,加拿大政府由创新、科学和工业部长代表,于2022年提交C-27号草案,内容包括私隐权制度的更新,以及新增的《人工智能及数据法案》(Artificial Intelligence and Data Act,AIDA)。该草案规管AI设计、开发、使用与提供行为,并提高对消费者的私隐保护,建立专门针对私隐和数据保护的法庭。
《AIDA》采用类似于欧盟《人工智能法》的方式,建立适用于“高影响力”AI系统的规范。所有公司将被要求评估旗下AI工具是否属于“高影响力”系统。如是的话,该公司必须制定措施,以识别、评估和减轻使用该AI系统可能导致的伤害或有偏见输出的风险,而且要持续监察缓解措施的遵守情况、以及这些缓解措施的有效性。
违反《AIDA》的罚则主要为按公司或个人收入衡量的罚款。一般来说,最高可被处以1,000万美元(7,800万港元)或全球总收入3%的罚款,以高者为准。特定严重状况如以非法方式取得AI训练所用的数据、明知或故意欺骗公众造成严重心理伤害或财产上重大损失,有可能判处刑事监禁。目前草案仍处于二读阶段,预计日后可能会有更多潜在修订。
除欧盟与加拿大外,七大工业国集团(G7)也认同必须加强AI监管。2023年5月20日,G7领袖在广岛峰会上发表的联合声明写道,生成式AI应符合公平、透明度、防止网络霸凌、尊重私隐和人权、以及具问责机制等价值观。纵使各国在峰会上未有讨论应如何规管AI,惟G7领袖已委派旗下高级官员,建立“广岛人工智能进程”(Hiroshima AI Process),讨论AI相关事务。由是观之,立法监管AI已是全球共识了。
随着ChatGPT等生成式AI工具愈趋普及,世界各国政府已开始筹划如何进行监管,因此在G7广岛峰会上也展开了AI规管的讨论。(图片来源:G7广岛峰会官网)
不过问题是,出于善意的监管有时可能因为力度过大,以致阻碍科技创新。当一项新科技诞生后,社会整体都需要花时间适应,其间可能会衍生出不少乱象,这时候监管部门才后知后觉地草拟法案,以致法例更新总是追不上科技发展。欧盟驻美国数码资深特使德格拉夫(Gerard de Graaf)指出,问题在于当立法进程远远落后于市场发展,监管将成为进步和创新的障碍。在各国政府倾向规管AI的大趋势下,生成式AI的发展步伐会否因此而被拖慢,日后还有待观察。
《经济通》所刊的署名及/或不署名文章,相关内容属作者个人意见,并不代表《经济通》立场,《经济通》所扮演的角色是提供一个自由言论平台。