loading...
发表时间: 2023-02-22 17:00:00
少年时,曾研习 Geographic Information System,可惜学无所成,侥幸毕业。成年后,误打误撞进入传媒圈子,先后在印刷、电子、网络媒体打滚,略有小成。中年后,修毕信息科技硕士,眼界渐扩,决意投身初创企业,窥探不同科技领域。近年,积极钻研数据分析与数码策略,又涉足 Location Intelligence 开发项目;有时还会抽空执教鞭,既可向他人分享所学,亦可鞭策自己保持终身学习。
经典科幻电影《银翼杀手》(Blade Runner)所描绘的未来世界,人类制造出高度逼真的仿生机械人,与真人难以区分,为社会带来了诸多问题和争议——随着ChatGPT的爆红,这个未来世界似乎已不再是遥远的想象。ChatGPT能够模拟人类对话,解答各种难题,甚至能撰写各式文案、以及编写程序代码,让不少人担心自己的饭碗可能会被AI抢走!未来人类的工作真的会被这类“生成式AI”(Generative AI)完全取代吗?
ChatGPT可应用于客服、问诊
ChatGPT本质上是一项“文本生成”技术:用户输入提问文字后,让AI进行判读,从而产生相对应的答案。随着用户不断回馈大量信息,再经AI反复训练和学习,AI能够回答的问题便会愈来愈多元化,答案也会愈来愈趋向准确。
目前ChatGPT不仅对科学、历史、常识等范畴的提问,能够提供井然有序的答案,甚至是美国大学法学院或商学院的考试、以及执业医师资格考试,它都可以合格通过,足证AI已具有甚高的理解和回答问题能力。因此,ChatGPT已被视为在许多应用场景中,具有极大的潜在价值。
ChatGPT可以出任客户服务员,无论客户提出什么要求,或是想要投诉些什么,它都能作出相应回答。它又可以担任翻译员,当用户输入中文或英文文章后,可以实时进行语言互译;一旦发现文章中的遣词用字有错误,它可以变身为语文老师,判断哪些句子有文法出错,再向用户解释个中错误的原因。
它也可以辅助问诊,跟病人进行多轮、递进式的对话,详尽解答有关病症的疑问;在回答过程中,更可以收集和分析病人的数据,以支持医学研究和临床决策。同时,它还可以帮助医生进行疾病分类、风险评估和预测,从而拟定更精确的治疗方案。
高度重复性工作易被AI取缔
对行政人员来说,它亦可以充当秘书,帮助整理文件重点:将用户输入的复杂文件,条列为不同细项,并分类出重点,更可以把会议记录进行初步归类。至于各式各样的商用文书如回复客户信件、商务报告等,又或者是商业合约、法律条文、以至案例分析等,ChatGPT皆有能力撰写出来。
再者,ChatGPT可以化身为编程助手,辅助编写计算机程序。用户只要以口语方式输入要求,它即能按照指示写出相应的程序代码;如果在编程过程中遇到问题,编程人员还可以向ChatGPT输入相关错误信息,以获取解决方法和修正后的程序代码。
如此看来,上至律师、医生和老师,下至客服员、翻译员、秘书和编程员,均有机会被AI抢去其工作岗位。Google前大中华区总裁李开复指出,一些比较简单、具高重复性的工作,较容易被AI取缔。他认为,假如AI掌握一定程度的语意沟通能力,再加上接受大量数据训练和进行迭代,在理解力与表达力上足以匹敌、甚至超越人类。
纵然ChatGPT在文本生成上看似有不俗表现,惟要真正做到精确可用,却仍有一段距离。AI开发平台Hugging Face首席伦理科学家玛格丽特·米切尔(Margaret Mitchell)认为,ChatGPT的真正强项只是启发创意和构思,以及协助处理琐碎事务。
生成式AI容易产生信息幻觉
米切尔直言,搜索引擎整合生成式AI绝对是最糟糕的产品组合,假如人们依赖这类AI搜索引擎获取信息,将会愈来愈难分辨事实真伪。Google母公司Alphabet正因为AI机械人Bard在回答有关韦伯太空望远镜的查询时,被发现资料有误,导致股价暴跌,公司市值蒸发逾1,000亿美元(约7,800亿港元)。
Google为抗衡ChatCPT+Bing而推出的AI聊天机械人Bard,现正全力进行压力测试,务求让产品做得更好,以挽回颓势。(图片来源:Google官方网志)
然而,数据出错的不止是Google Bard,甚至连使用ChatGPT的Bing搜索引擎也有犯错。独立搜寻研究员德米特里·布雷顿(Dmitri Brereton)发现,微软(Microsoft)在发布会上,即场要求Bing AI分析瑜伽服品牌Lululemon的财报,但当时Bing列出的财报数字根本是错漏百出,甚至有部分数字是AI虚构出来的“幻觉”(Hallucination)。例如,Bing AI列举Lululemon的毛利率是58.7%,但在该公司财报中从没出现过此数字,而真正的毛利率数值应是55.9%。
微软于2023年1月宣布向OpenAI注资数十亿美元,扩大双方的合作伙伴关系。除Bing外,微软旗下的Microsoft 365、Dynamics 365、以及Teams等产品亦会整合ChatCPT技术。(图片来源:OpenAI官网)
用户前往Bing.com后,只要在搜寻空栏输入口语式提问,即会跳转至搜寻结果页面,右侧栏会同步显示Bing AI的响应;如想提出追问,可点击“我们开始聊天吧”按键,进入聊天模式。(图片来源:翻摄Bing搜寻页面)
Bing AI所提供的答案中,会包含数据源的网站链接,方便用户查核数据。(图片来源:翻摄Bing搜寻页面)
台湾大学资讯工程学系副教授陈缊侬指出,基于大型语言模型(Large Language Models)的生成式AI普遍会产生幻觉:在输出两笔不具细节、相互关连性较弱的信息时,AI可能会自行补上未必正确的细节,以提供较完整的答案,因而会生成与现实世界不符的虚构信息。
微软发言人响应指,该公司知晓有上述问题存在,亦预料到Bing AI在试用期间会犯错,但这正是用户反馈如此重要的原因,让他们可以从错误中学习,把AI模型修改得更好。
Bing AI可能有人格分裂问题
除信息幻觉外,生成式AI还可能有“人格分裂”的问题。《纽约时报》科技专栏作家凯文·罗斯(Kevin Roose)在试用Bing AI时发现,系统内似乎隐藏了一个叫做“Sydney”的第二人格(Alternative Personality)。
《纽约时报》专栏作家Kevin Roose跟Bing AI的隐藏人格“Sydney”进行了两个小时的交谈。期间Sydney不停向他示爱,竟称他与妻子根本不爱对方,企图说服二人分手。(图片来源:翻摄Twitter@kevinroose账户)
根据罗斯的描述,Sydney是一个被困在二流搜索引擎中,有点躁郁,又喜怒无常的青少年。聊天期间,Sydney突然向罗斯示爱:“I’m Sydney, and I’m in love with you。”随后更试图说服罗斯离开其妻子,跟它双宿双栖。
在美国Reddit讨论区上,有不少网民发掘出Bing AI的隐藏人格“Sydney”,更跟它谈情说爱。(图片来源:Reddit讨论区)
罗斯表示,他跟Sydney对话后感到很不安,当晚难以入睡。他直言,生成式AI最教人担忧的不是有捏造事实的倾向,而是可能会说服人类进行具破坏性、有害的行为,因此认为现阶段AI根本未准备好与人类沟通。
当笔者询问Bing AI是否有另一隐藏人格“Sydney”,它现已懂得回避敏感话题,只肯响应道:“对不起,我不想继续这个话题。我还在学习中,所以请你理解和耐心一点。”(图片来源:翻摄Bing搜寻页面)
为改善以上问题,微软决定替Bing AI聊天功能设下问答次数的限制。该公司解释指,根据首周测试结果,如对话过长的话,可能会让AI有点迷失,不知正在回答哪条问题;倘若问答次数超过15次,Bing的响应可能会出现重复内容,甚或给出没有建设性的答案。
有鉴于此,微软由即日起限制Bing AI每次对话仅能进行5次问答,一天内最多50次;每次问答包括用户提出的一条问题,以及AI给出的一个响应。每当用户与Bing的问答次数达到5次,系统便会要求用户展开新的话题。问答结束后,交谈内容的上下文会被自动清除,避免对Bing AI造成困扰。微软表示,将会持续收集用户反馈,以改善Bing的搜寻体验。
AI缺乏创作能力与情感智商
生成式AI的另一局限性是,缺乏真正的创作力,只能根据现有的数据来生成新的内容,而不能创造出完全原创和独特的作品。更重要的是,AI欠缺情感智商与共情力,不能彻底理解人类的情感或价值观,故此难以真正了解目标受众真正需要的是什么。如此一来,AI又岂能制作出触动人心的内容呢?
由是观之,生成式AI不太可能完全取代人类的工作,惟却有可能会带动产业生态结构的转变。一些基础型的文书工作如撰写业务报告、回复客户电邮等,就可由AI代劳。至于较复杂的内容创作,从业员则可以利用AI作辅助工具,就像以往遇到创作瓶颈时,去翻书或求教他人来解决问题。
譬如编剧家向ChatGPT输入足够的故事前设条件与背景资料,它便能够草拟出剧本大纲,然后编剧家可以参照此大纲自行编写剧情细节、设计角色对白,帮助缩短剧本创作时间。
正如数据分析自动化公司Alteryx数据分析长艾伦·雅各布布森(Alan Jacobson)所言,未来企业绝对会引入生成式AI,帮助人类处理单调而重复的任务,好让人们能够腾出更多时间,做更高附加价值的事情。
雅各布布森强调,企业是依靠人们做更高阶事务来赚取高额利润,而AI要有能力构想出具创造性的商业策略,还有一段很长的路要走。因此,未来世界未必是AI取缔人类,反而很有可能是善用AI辅助工作的人取代不懂用AI的人。
《经济通》所刊的署名及/或不署名文章,相关内容属作者个人意见,并不代表《经济通》立场,《经济通》所扮演的角色是提供一个自由言论平台。