图片提供/123RF
(本文网媒版发表于《举目》杂志:https://behold.oc.org/?p=59126, 全文亦受邀刊登于《文化宣教:跨学科现象与理论研究》一书,曾劭恺博士主编)
▎作者王道维为国立清华大学物理系教授、国立清华大学谘商中心主任、国立清华大学人文社会AI应用与发展研究中心副主任
2022年11月30日,美国科技公司OpenAI公开发表目前最火红的AI对话机器人ChatGPT[1],两个月内吸引超过一亿人注册成为用户,远快过过去所有的网路应用程式[2],真的可以用横空出世来形容。ChatGPT可以就开放式的问题提供意见,又或是编故事、写诗词、抓重点、问判决、草拟文案企划、转换表格或甚至写程式debug等等,只要能透过文字表达的几乎无所不能。在这之前,只有如钢铁人那样的科幻电影情节中,才会有个机器人几乎可以听懂任何问题来回应主角的提问,而这几个月来已经出现无数的文章在作相关报导,彷佛AI时代真的已经来临[3]。
对于基督徒而言,这波人工智慧(Artificial Intelliegence, 以下都简称AI)的浪潮也带来了一些重要的信仰问题。例如,基督信仰中,上帝是万物的创造者,人类也按照上帝形像与样式所创造的,有着不可取代的价值和尊严。但是,当AI的发展(特别是本文所要谈到的ChatGPT这类近乎通用型人工智慧)似乎越来越接近人类的智慧时,基督信仰该如何回应这些挑战?应该要更为善用这样的工具?还是应该把AI当作魔鬼的化身,拒绝其发展?是否仍能提出有价值的观点或提醒?或是随波逐流被动接受世俗社会给我们的框架?事实上,笔者相信这些问题不但是对基督徒有重要意义,也是许多社会大众需要一起认真面对的问题,而基督信仰的若干基本原则也可以给我们一些重要的提醒。
本文将先简介目前AI运作的基本原理,并约略从ChatGPT这类AI机器人的训练方式来了解其特殊之处。进而分别从圣经的创造论、救赎论与启示论来看AI的发展如何与基督信仰的核心有所呼应,并对照出差异。最后本文也会特别从一般语言理解的五个层次(字词、讯息、意见、知识与洞见)来检视ChatGPT与使用者的心理互动。希望能以此来说明基督教会在牧养现场或社会关怀上可以更重视哪些方面的调整,好在这个「已经来到」(不再是未来)的AI时代能有更为「道成肉身」的信仰实践[4]。
由于文章篇幅不小,以下先提供本文大纲给读者参考:
一、简介AI的基本图像与常见误解
二、ChatGPT:结合流利程度与回答结构的训练方式
三、从创造论看ChatGPT:上帝形像的必然彰显
四、从救赎论看ChatGPT:AI原罪需持续改善但受限于人类自身
五、从启示论看ChatGPT:可承载上帝的道而带来牧养新挑战
六、直面AI时代的到来与具体建议汇整
附录:语言文字理解的五个层次
一、简介AI的基本图像与常见误解
虽然本文的主要内容是谈基督信仰与ChatGPT的关系,但是后者作为当前AI最为大众所熟知与热衷讨论的单一产品,仍是应该在整体AI的架构下有所认识,才能避免过度的想像而造成不必要的误解[5]。坊间或网路上介绍AI的书籍文章已经相当多,笔者此处就主要从AI整体的三大结构,分别是资料来源、演算法与应用场域,来勾勒出粗略的图像,帮助读者更容易了解本文后来提及的一些观点并厘清常见的误解。
1. 目前AI是以数据为基础而非规则为基础
AI的发展是从20世纪中期就已经萌芽,至今已超过60年,并非新颖的概念或技术。这半个世纪以来AI经历了几波浪潮与消退,如今在2010年后又重新再起。其中固然与硬体设备的突飞猛进并网路大量数据的利用有关,但最核心的原因仍是其核心关键,机器学习(Machine Learning)的演算法,成功摆脱过往「以规则为基础」(rule-based)而转用「以数据为基础」(data-based)的架构来建造,才可能开始让电脑有效的模拟出一些人类的复杂行为,如影像辨识或语音文字生成。
例如,若目的是希望电脑自然地组织人类的话语来回答(而非制式的模板),传统的想法是需要先教电脑关于语言学的基本知识,例如哪些是名词、动词或介系词等等,才能放心让它来组织,但这样的效果仍然相对呆板且错误百出。目前的AI发展几乎已经完全放弃这条进路(包括本文的主角ChatGPT),而是让电脑直接读取大量的自然语言文本,藉由计算同一个字词在不同前后文中的相对出现机率,使其模拟在特定脉络中的文字表达。而目前许多人常用的Google网路翻译也是因为采用这类演算法而大大提升其可靠程度。
2. AI高维度空间中的模拟计算与人类大脑不同
如前所述,AI之所以可能模拟人类的某些特定的行为(例如影像辨识、写文章或下围棋等),并非事先设定好特定的规则来达到目标,而是利用已经标注好的大量数据作为基础,让机器学习的演算法(如类神经网路,Artificial Neural Networks)中大量的参数可以自动调整,模拟出希望得到的效果。由于这样的模拟过程是在超高维度(数百到数千万或更多的参数)空间中所作的计算,因此往往需要大量的计算资源与大量的数据来训练校正。
但麻烦的是,因为有如此多的参数可以调整,所以万一结果有错,几乎不可能找出可解释性的理由来除错,只能不断try and error。因此AI的计算方式与人脑的学习模式是非常不同的(人脑并不需要这么多的资料来学习),所以我们目前完全不需要以为现在的AI彷佛有人的意识或灵魂。即使如此,对人类社会的影响也已经足够巨大。
3. AI的应用几乎都受限于特定的范围或形式
AI的应用领域可以粗分为「弱AI」、「强AI」与「超级AI」三个类型或阶段。当前所有的AI产品都是属于弱AI的阶段,需要针对某个特定的功能来作数据标注的处理与演算法的优化,因此也只能应用于某些特定的领域(例如AlphaGo只能下围棋),或以特定的方式来接收资讯并呈现结果(例如ChatGPT只能以文字输入与输出)。强AI也可以称作「通用型AI」(Artificial General Intelligence, AGI) ,代表可以在相当广的范围内处理各种类型的资料或功能,彷佛人类大脑所能作的许多不同工作。
本文所讨论的ChatGPT若限制在文字处理的范围内,可以算是当前最接近这个概念的AI产品,因为可以展现各种不同的功能(创作、回答、翻译、改写等等)。而超越人类智慧的超级AI目前可能是一个概念上的推演,仅出现于电影小说中。许多对AI内涵不够了解的民众可能因为某些新闻渲染而受到影响,以为目前的AI就要进入具有自我意识或主体性的能力[6],但其实这更多是因为人类自己的移情作用[7],会对能回应的玩偶、动物或机器产生想像力的投射。真实的AI发展距离超级AI仍是非常遥远,甚至可能是永远无法达到的。
以上简略分享的三点当然不足以介绍AI当前发展的许多丰富面向,但应该足以协助读者有个基础的了解而进一步认识当前的ChatGPT,并评估对基督信仰相关的影响。
二、ChatGPT:结合流利程度与回答结构的训练方式
在AI许许多多的应用类型中,ChatGPT是属于一种称作「生成式AI」(Generative AI)的对话机器人。不同于一些常见作辨识、预测、判断或分类的AI模型,ChatGPT是专门训练用来从一堆输入文字来产生另一堆输出文字。而这些输出的文字当然希望是人类可以看得懂,并且能够正确有效的回应。从这样的架构就可以理解,许多对ChatGPT的误解是使用者错把这个生成模型当作搜寻引擎来使用[8],以为应该可以提供正确即时的讯息[9]。这显示人类实际的需求往往是复杂多元的,很不容易用特定功能的AI来完全满足。
那么ChatGPT比起之前就出现过的对话机器人(如Google的LaMDA或微软的小冰等),又有哪些特别的能耐而造成这样令人惊艳的成果?这部分涉及到AI对于自然语言处理的技术内涵,但我们可以简单从三大部分来说明。或是读者有兴趣听听开发者OpenAI公司执行长Sam Altman接受MIT Review的专访[10],也会更有感这趟神奇的旅程。
1. 大型语言模型
首先ChatGPT是源自GPT3.5的大型语言模型(Large Language Model, LLM)而作更精致训练与应用。也就是说它是透过数千亿字的海量资料来作训练,可以调整的参数高达1750亿个。用这些参数来模拟每个字与前后文其他字的关系。最后再根据提问者的问题或之前的回覆来计算对应的各种文字组合机率,将整体机率最高的结果作为「答案」来提供[11]。
由于ChatGPT训练时所用的文字资料非常多,包含不同语言的资料,以及彼此间互相翻译对应的文字,所以它可以回答得相当流利不呆板,如果资料不足也可以从其他次要关系的资料(或甚至透过翻译其它语言)来自动弥补相关文字,彷佛是真的有个无所不知的人类在背后回应。事实上,如果使用者直接按「重新产生(Regenerate Response)」键就会看到其他的文字回答。因此可知这样AI其实无法保证这些内容是正确或适当的,只能说是根据其训练资料而计算出最可能的「文字组合」,提供使用者参考。
2. 人工回馈的强化式学习
相较于之前的文字生成,ChatGPT成功更重要的因素,应该是透过人工标记员的反馈调教。也就是说,开发团队(OpenAI公司)使用数十位人工标记员来给它的回答作评分[12],让ChatGPT的文字生成模型再透过一种称为强化式学习的方式来强迫自己将本来机率较高(但不一定符合人类论述逻辑或可能有许多偏见或错误的结果)的回答调整成较低的机率,直到输出的结果是符合人类标记员所认可的标准。这种称作「人工回馈的强化式学习」(Reinforcement Learning from Human Feedback,RLHF)[13] 的确让ChatGPT输出的文字免除许多其他对话机器人因为训练资料中所包含的错误、偏见或不适当回应方式。
事实上,使用过ChatGPT的人会发现,同类型的问题往往也会得到类似模板的回应架构,使其内容看来更有说服力或至少有个正式文章模样。如果刻意加入一些敏感字词,如自杀、严重疾病、种族歧视等等,ChatGPT可能就会停下来说无法提供更多意见,建议询问相关的专家或求助专业领域的工作者。虽然这让许多猎奇的使用者可能觉得无趣,但至少减少不必要的困扰。目前因为这类生成式AI的出现(包括用文字转图像的Midjourney之类的其他AI工具),市场上已经开始出现「提示工程」(Prompt engineering)[14]的工作,也就是利用特定的语法让AI作更精确有效的回应。这样大家或许更能了解为何ChatGPT应该是一种更聪明的工具,而非更像人类的生物。
3. 使用当下的即时训练
除了以上两个主要的特色以外,ChatGPT也引入了一次性学习(One-Shot Learning)的方式,让AI可以根据使用者前次的文字即时调整回应讯息,让同一串的对话可以彷佛紧扣着主题。
毕竟我们可以想像,不管这样的AI事先经过多少这样的后天训练,也不可能符合所有使用者习惯的表达方式,所以这样的设计就让AI当时的对话体贴使用者的习惯或预期,提升使用上的好感度。但是这个功能的问题在于,这也代表使用者可以间接引诱ChatGPT来提供不实或错误的回应。例如有朋友询问2+5等于多少,GPT回答是7,但是他故意说老婆认为这个答案不对,应该是12,GPT就马上应和者说你说得对而调整答案……(但笔者发现这类数学问题已经在现在的版本调整过,不再那么好骗了)。若从另一个角度来看,这也会使得ChatGPT日后走向客制化的模型设计,能针对不同使用者而有特定的表现方式或功能强化,例如调教成伴侣模式[15]或其它的角色扮演。
透过以上简单的说明,希望读者可以了解ChatGPT这类AI机器人与人类说话表意最大不同之处在于,它并非「有意识」地提供「答案」,而只是某些文字组合与其机率。这也是为什么它可能申论题回答得不错,但数学题往往很差,因为他把数字当成文字在处理,寻找最可能出现的数字答案而非实际做计算[16]。因此,GPT所提供的文字组合是否能适当的「回应到外在世界」或是「逻辑前后一致且精密的正确」,其实常常还需要人类读者自行补充许多想像与基本常识,才能让AI的回答看起来有意义[17],绝非无所不能。但是即使如此,由于人类自己表达与接受讯息本来就不是一板一眼绝对无误的,甚至还带有更多「心理层面」的活动,以至于这样的不足却已经会带来相当大的冲击。这部分本文后段会有更多的说明。(待续)