作者 王道维 2023.08.06
图片提供/123RF
▎作者王道维为国立清华大学物理系教授、国立清华大学谘商中心主任、国立清华大学人文社会AI应用与发展研究中心副主任
自从笔者发表第一篇关于ChatGPT与基督信仰的文章后,就开始接到一些机构的邀请进行相关演讲或采访。笔者发现有些问题是我文章中比较没有明确提到的部分。为方便有类似问题的朋友(可能以基督徒为主)可以先行参考,笔者整理常被询问的七个问题并给予一些回应,以下为问题三。
Q3: 如何更好利用ChatGPT得到所需要的属灵知识而避免可能的错误?若有错误,又要如何辨别?应用于牧者讲章预备或主日学教育有何需要注意的地方?
A3: 这的确是很重要的问题,笔者可以从以下三个面向来提供一些想法共读者参考。
首先,我们需要了解这类大型语言模型的基本原理,才不会对他有错误的预期或不合宜的想像。最常见的误解是把ChatGPT这类生成式AI当作「搜寻引擎」来使用,以为问甚么问题都会从中得到最新或最正确的资料[6]。虽然ChatGPT的确使用大量的文字资料来训练,但是不是把他们放在资料库中然后随时找出来给使用者参考。ChatGPT的程式库中没有这些资料,只有几千亿个参数(这些参数的意义没有人懂),负责把使用者输入的问题转换成我们所看到的「回答」。
因此希望读者能了解,这种方式产生的文字本来就只是「猜测」,而不是「认证」:这些被产生出来的语意概念之前可能并未在任何一个网页或书本中出现,只是针对使用者的需求而被组合生成出来的(例如读者可以任意组合看起来不相关的两个词,ChatGPT都可能滔滔不绝,十足一本正经的胡说八道)。目前ChatGPT之所以会被许多人认为可以使用,乃是因为已经经过相当多的人工训练与形式上的调整,在适当的使用范围内可能有助于解决我们的需求而已,并非理所当然的无所不知或绝对无误。
其次,如果我们没有办法确认所得到的结果是否正确,最快速的检视方式是请他重新产生几次,比较一下所出现的答案是否一致。如果只有一些文字细节上的差异,整体的回应结构与内涵是一致的,那也许这个结果可以值得参考(虽仍然可能有误,但机会少得多)。反之,如果每次出现的回答有不小的差异,可能代表这个问题AI其实没有把握,很高的机率是每次回答都不值得相信。这也就是笔者所说的只有「意见」的层次还未到「知识」的层次[7]。
第三,我们也要了解大型语言模型所产生的这类「虚拟知识」,即使是有相当的一致性[8],仍然是与使用者的提问方式密切关连的结果,并非一个独立于提问者的静态命题。因此好的提问方式或清楚明确的指令(Prompt),往往也是得到好的答案或正确可靠知识的前提。目前在网路上已经有许许多多对于这些指令的介绍,请读者自行参考。此处笔者建议大多数的情形下,可以用以下四层结构请ChatGPT更好完成任务,也可以参考本书的附录而有更多的想法。
1. 设定ChatGPT的身分、场景与过往资历,让他知道以甚么身分处理。
例如改革宗神学或灵恩神学背景的牧师、学者或宣教士,是要用在周日讲章或婚礼致词等。
2. 明确定义任务的目的、对象与想要达到的目标。
例如针对家庭主妇或职场人士的内容,希望能产生即知即行的动力还是自我反省的探索。
3. 设定完成任务所需要的完整原始资料、定义、条件或限制等。
例如圣经章节的进度、节期的需求、重大社会事件的内容或表达风格等。
4. 设定完成任务时的呈现架构、字数、语言、表格或范本等。
例如分五个段落、是否要有大小标题、相关圣经经文、生活实例、时间列表等。
最后,我们也需要了解GPT4的版本是支援多层次的回应字串,也就是能将同一个问题继续深入提问,将前面的条件继续补充或修改。使用者可以不断深入的询问,挖出更多丰富或深入的文字内容。但是笔者也需要提醒一下,目前ChatGPT或大多数相对多人使用的AI对话机器人,其英文训练资料都远多于中文,而其中简体中文的数量也多于繁体中文的数量(除非是台湾企业自行开发的)。虽然ChatGPT内部会将不同语言的资料作翻译,补充特定语言中所找不到的部分,但这个情形仍会让以繁体中文为主的华人信徒在使用上可能还没有办法经验到最好的结果(这个情形与维基百科相同)。所以使用者若可以的话,也可以直接以英文询问相关问题,或是先请ChatGPT翻译成英文再行输入,然后请它将结果直接翻译成中文。
总的来说,虽然生成式AI的应用在属灵知识的学习与讲台讲章的预备上需要有所警醒,但是只要适当善用,应该可以带来许多新的可能与发展,协助教会牧者与基督徒突破现有的思想或想像的框架。更重要的是,它可以帮助牧者减少相关的准备时间,让牧者可以专心将个人的牧养经验或属灵洞见与ChatGPT提供的基本知识相结合,让讯息内容有更丰富的层次,也更容易贴近不同的族群的需求,让从上帝来的感动能更进入受众的内心。
[6] 目前微软的New Bing是可以连网的,而ChatGPT最近也开放连网。Google的Bard也可以连线。但是就笔者所知,这些主要是将搜寻过后的资料重新整理呈现。并不是像许多人想像中根据最新资料所提供的最终可信赖结果。这其实也很容易理解,因为训练大型语言模型是需要好的资料与训练时间,即时的新资料又大量又良莠不齐,若不加筛选的使用在模型训练可能结果更糟,也不会是最即时的(因为重新训练需要时间)。反之若用过往的训练结果,也就无法产生最新的资讯,这些都是大型语言模型技术上的限制。这就像看很多即时新闻的人不见得比阅读政经历史的学者更能洞察时事。笔者相信未来或许会用阶段性的更新,例如每三个月重新训练一次,但也要审慎评估这样的结果,不见得比使用过往资料好好训练的模型更为优秀。
[7] 王道维,〈当Google遇上ChatGPT――从语言理解的心理面向看AI对话机器人的影响〉,风传媒(2/11/2023)。引用网址:https://www.storm.mg/article/4725780?mode=whole。后来增补的版本亦可直接见于笔者的部落格原文:https://blog.udn.com/dawweiwang/178350327。
[8] 见前注5。
※本文原刊于作者的部落格,经作者同意后修改发表。作者近期已出版《当教会遇见AI:从基督信仰探讨ChatGPT对教会的挑战与契机》,由ChatGPT写了篇序言。
※本文为系列文章,共有七篇,将陆续刊登。 【延伸阅读】:
ChatGPT与基督信仰常见问题-1人类可能与AI产生情感吗?
ChatGPT与基督信仰常见问题-2使用AI能代替灵修和团契吗?
ChatGPT与基督信仰常见问题-2使用AI能代替灵修和团契吗?