图片提供/123RF
(本文网媒版发表于举目杂志, 全文亦受邀刊登于《文化宣教:跨学科现象与理论研究》一书,曾劭恺博士主编)
▎作者王道维为国立清华大学物理系教授、国立清华大学谘商中心主任、国立清华大学人文社会AI应用与发展研究中心副主任
六、直面AI时代的到来与具体建议汇整
面对已经来临的AI时代,特别是ChatGPT这类接近通用型AI的发展,已经没有人再怀疑未来社会是否会因此有巨大的改变,唯一的问题只是到底该如何面对[32]。事实上,目前连写AI程式的资工人都开始担心自己的工作机会因此减少[33],毕竟ChatGTP这类生成式AI的功能已经相当齐全优秀,介面又如此方便,已经开始让一些企业停止增聘相关的技术人员[34]。这样的情形是以往工业革命所没有的,目前世界各国也很难有好的范示可以有效面对。因此我们也必须承认,目前对于AI在信仰团体或福音未来发展上产生的影响,了解还十分有限,很容易就过分低估或夸大其影响。
由于文章篇幅的限制,此处笔者不再重复许多人已经提过的AI时代可能带给目前社会的影响,有兴趣的读者可以很容易从网路上找到相关资讯[35]。以下仅综合前面圣经的创造、救赎与启示的角度,对华人基督教会或基督徒提供笔者个人目前认为的几个方向性建议:
1. 从创造论的角度,我们应该肯定AI相关的发展也是上帝创造人类时所赋予的上帝形像展现之一。因此可以鼓励更多相关领域的专业基督徒投入研究或发展,也在教会生活中适当应用,不必妖魔化或给予不必要的质疑。
2. 从创造论的角度,基督教会应该对这些AI模型开发的目的与影响给予更多关注,鼓励督促开发者用于协助人类管理其它被造物,帮助人脱离束缚,而不是用来限制或约束人(或至少不能对人类全体有所伤害)。
3. 从救赎论的角度,我们需要提醒基督徒与社会大众对AI几乎不可避免的错误尽量谋求改善,并准备好相关的配套措施或法律制度。特别是如ChatGPT这类接近通用型的AI,需要有更完善的管理或审核机制。
4. 从救赎论的角度,我们知道AI因为资料搜集与人工训练的缘故,必然会有价值观的选择,无法逃避。基督教会可以从信仰的高度与不同价值观者积极对话,寻求妥协与配套,减少因为ChatGPT这类AI对话机器人而扩大的人类内部差异或冲突。
5. 从启示论的角度,教会应鼓励基督徒更好地建造信仰的基础知识,可以善用ChatGPT所产生的文字来造就人,增广相关见识或深化既有基础,而非被可能的错误误导。
6. 从启示论的角度,教会的牧养与神学院的信仰教育应加强预备,在AI模拟信息充斥的时代,协助传道人仍能有效对基督徒与这个世代传讲上帝的道。要做到这个,除了对会众的需求提供引导「意见」,以及基本的「知识」基础,更需要提供ChatGPT这类对话机器人无法产生的属灵「洞见」,让生命得到真实的属灵喂养(此处的意见、知识与洞见分别是人类语言文字沟通的五个层次中的后三个,详情可见本文的附录)。倘若讲台上仍像若干教会只是重复许多「术语」就以为敬虔属灵(其实只是「字词」或「讯息」的层次,见附录),那就真的很难造就信徒,也更容易被模仿取代,因为AI就是用常见的文字来训练的。
最后,笔者认为未来AI必然会以更多的应用形式渗入我们的生活,人们会被这些虚拟环境围绕,更难完整地认识自己。因此,未来对于人生的意义或价值有迷茫的人必定更多(特别是年轻世代),形成更大的福音需求,但是这不代表他们必然会来寻求福音。毕竟在未来AI模拟充斥的时代,人们来到教会仍需要找到耶稣对其个人独特的呼召,而非彷佛用同一间工厂的标准流程制造出的罐头信徒。或许唯有这样,我们才能算是实践自己的「道成肉身」,成为耶稣所认识但无法为AI演算法替代的那一位。(完)
附录:语言文字理解的五个层次[36]
一般使用语言文字表达的时候,我们可以先区分以下几个不同层次的概念,这些组成我们对于现有知识结构的理解[37]:字词(word)、讯息(information)、意见(opinion)、知识(knowledge)与洞见(Insight),并举一些基督信仰的例子来说明。而笔者认为目前ChatGPT所产生的文字大致上是属于「意见」的范围,有部分可以称为「知识」,但几乎未到「洞见」的层次。
1. 字词:本身其实只是一种符号,通常是用来表达另一些概念对象。 从现代语言学的角度来看,某个特定的符号和其特定所指的概念对象之间的联系不是绝对的,而是有约定俗成的弹性。唯一有关系的是使用这个字词的人是否在相关的文化环境中使用,以至于可以与其他人正确地沟通,不会误会彼此的意思。
因此,如果认为某些基督教术语(如哈利路亚)之类的就比较属灵,其实那只是在一个特定的脉络中对听得懂的人有意义。从这个角度来看,一个基督徒说「哈利路亚」如果只是一个习惯性的口头禅,并不见得会比ChatGPT在合适的脉络下使用这个辞汇更为属灵或被上帝看重。
2. 讯息:只有字词无法正确代表语言,还必须放在正确的前后文(context)中,才有可能发挥效果,描述某些外在事物、内心感受或理念。
前述的大型语言模型,就是根据这个前后文来计算出的复杂机率关系:利用前面出现的几十个字词,推算后面将会出现的字词,有助于形成一个通顺的文句,例如「这件事情可以祷告交托给上帝」这样的语言表达,可以说在某个程度上描写出一段不同事物 (事情、祷告、交托、上帝) 彼此之间的关系,开始指涉某些事件发生的过程或内涵。
这样的讯息带有描述成分,当然就可能成为可以评价正确性或合适性与否的内容。由于大型语言资料库都是人类使用的文字,所以应该几乎不会出现类似「给事情祷告可以交托这件上帝」这种看起来符合文法但语意不通的句子。
3. 意见:但是以上的讯息本身不见得能影响对话的对象,因为听的人可能只是觉得他在自言自语,毕竟类似的讯息充满在我们四周。我们通常会考虑听从那些有根据、专业或至少经验上看来可靠的意见文字,来做出判断。那样的意见当然不会只是一个规范性的命令,通常也会包括相关的理由与说明,形塑出一个逻辑架构,让人觉得可以考虑信任。
举例来说,「这件事情可能让你特别烦躁,但短时间内显然也无法有效解决,也许可以祷告交托给上帝,看后来会有甚么样的预备,再决定是否继续调整。」这样一段话就是一个意见,提供一些脉络与逻辑,带有价值评断或规范性的期待,就会使听者更愿意考虑。
笔者认为,目前的AI对话机器人提供的文字讯息,主要是属于这样的「意见」层次,会让我们觉得好像针对我们的提问而有值得参考(或至少决定如何否决)的可能性。
从心理层面来说,对于这样「人模人样」的文字,我们人类就容易在心理上投射出应该可以信任、考虑其意见的感觉,毕竟这会帮我们节省一些做决策的时间。但是反过来说,如果使用者本身的分辨能力不足,以为得到的回答是正确的(也无法质疑),那就可能被误导而不自知。例如前述ChatGPT的回答,说自己没有价值观,其实是不正确的。它的价值观已经透过人工调教并重新训练而成,如前述的「人工回馈的强化式学习」,但没有这些基础知识的人,就会真的以为它是完全价值中立的。
4. 知识:虽然意见的文字本身可能是通顺流畅且合理的,但是不一定能形成有效的知识。在这里,笔者并不是要陷入哲学上对于「知识论」(Epistemology)的探讨论证[37],只是先以一般人基本的概念来说,真正的知识大致上需要一种与外在世界相符(有经验主义的基础)且有内在逻辑理由(有理性主义的架构)的整合性概念。这部分就会牵涉到实际上这些意见是否真的可行的问题,或是如果我不照着做,是否有所损失?而非只是「看起来人模人样」的感觉。
以此而论,ChatGPT有部分的功能,例如写程式、找程式的错误、找寻过往的资料、整理现存的资讯等等功能,的确达得到这类层次而成为可以信赖的知识。虽然错误仍然会有,但因为是包在一个论述架构中,所以除非对这方面相当熟悉的使用者才可能分辨。但是反过来说,如果这样的「知识」其实错误地引导到外界的事件,就可能带来严重的影响,例如医学相关的应用[38]。
因此,我们发现容易混淆的原因就在于,由于信仰的问题很多终极的答案在于对上帝的理解或者对圣经经文的诠释,这部分往往本身难以有绝对客观的标准,很难排除某些论述的有效性,因而使用者在心理层面受到类似锚定效应(Anchoring Effect)的影响[39]——虽然AI机器人的文字回覆只是意见的层次,却有可能像是可参考的知识内容,甚或因此产生了权威感。
这是为何ChatGPT做法律或商管领域的申论题,往往可以表现得很好,甚至可能颠覆过往人文社会领域传统、特别重视文字论述的学习方式[40],但是它做数学或理工的问题往往不容易及格。
5. 洞见:笔者这里的洞见是指,这些文字组成不仅仅带有知识的内容可以被检验,也提出一些特殊(或以前很少被听到或重视的)观点。而这些观点是带有可预测性或至少有更完整可延伸的解释能力,能够让人相信这是未来可以被验证,或至少相当有说服力地去理解过往没有被充分了解过的问题。
这部分是目前AI机器人几乎做不到的,如此说当然也要更具体看是哪一种问题或是哪些回覆方式才能确认。可是就笔者印象所及,网路上目前为止所提出的ChatGPT实测结果,都只是惊叹它整理出一些我们本来就大约知道的内容,而没有精准高明到超过人类一般的能力。
其实,如果我们了解AI目前的训练方式,就会知道这一点对于目前的AI对话机器人很可能是先天的限制,永远都无法像AlphaGo那样超越人类。这背后的原因也很简单,因为AI只是从训练的资料中模拟可能的结果。
如果资料来源是自然科学中可以明确知道的结果(如天气预测)或可以用数学定义的目标(如围棋比赛),那AI的应用的确就可能超越人类而更接近客观目标。但是如果这些训练资料是来自于人类社会,标准是由人类自行定义的(否则就不像人类),那AI最多只能模拟人类的行为,准确性也就不可能超越人类多数的标准,只能说可以加快速度处理更大量的资料而节省时间。