图片提供/123RF
▎作者王道维为国立清华大学物理系教授、国立清华大学谘商中心主任、国立清华大学人文社会AI应用与发展研究中心副主任
自从笔者发表第一篇关于ChatGPT与基督信仰的文章后,就开始接到一些机构的邀请进行相关演讲或采访。笔者发现有些问题是我文章中比较没有明确提到的部分。为方便有类似问题的朋友(可能以基督徒为主)可以先行参考,笔者整理常被询问的七个问题并给予一些回应,以下为问题五。
Q5: 在可以预见的未来,是否有可能开发基督教信仰的大型语言模型?或是如何植入AI关于基督教的价值观念?
A5: 从技术层面而言,开发基督教信仰的大型语言模型完全是有可能的。事实上,Meta最新发布可以翻译超过1000种语言的大型语言模型就是靠学习宣教士的圣经翻译的结果[12]。虽然OpenAI开发ChatGPT经历过多年的努力与百亿美金的投资才能有今日的效果,但是不论Google、Meta、其他研究机构或开源社群都有一些其他类似的AI机器人逐渐被开发出来,而且新的技术所需要的训练资料与训练经费也越来越小。所以这部分可以是乐观看待的。
但是除了技术面以外,这件事更重要的思考面向是关于背后的动机与后续的伦理问题。由于大型语言模型主要是为了往「通用型AI」的发展而开发的,藉由广泛的语言文字资料来创造一个可以连结不同知识与不同应用场景的AI对话机器人。如果要在基督信仰的立场上建立这样的模型,代表会大量(甚至可以说是有偏误的加强)使用基督教的文献、资料或相关资讯,也必然使用只符合特定宗教价值观的「虔诚基督徒」来作人工标注或筛选工作。
但是这样作的问题在于,我们几乎可以预见会造成对其他类型资料的缺乏与偏误(例如其他宗教自身的资料或异端学说的原始资讯,当然也有可能是当代不符合主流基督教会价值观的世俗言论等等)。这非常可能就使得整体的资料产生偏误,变成一个只会模仿基督教的术语,却一点都「不属灵」的对话机器人,恐怕还容易出现宗教歧视的语言或伤害,也让整体回应的流畅度更差(因为继承基督教会现有的同温层语言而失去社会的其他资讯),所以这部分实在需要更仔细的评估,免得过于乐观而失望。
笔者需要再次提醒,大型语言模型并不是大型语言资料库,所产生的文字「都是重新组合过的」,不是原文照抄甚至难以追朔所参考的资料来源。毕竟在AI模型动辄数百亿的超大参数空间中,很容易因为某种开发者自己都想不到的特定提示、符号、或表达的方式而绕过本来预设的表达模式,让AI展现出完全不同的另一方面。这在ChatGPT中也一样存在(所谓的暗黑模式[13]),而且很可能在技术面是无法完全去除的。此时如果这个被赋予神圣期待「属灵的AI」结果却说出不得体或不符合纯正信仰的内容,又该如何向那些盲目相信它的信徒负责呢?假使它冒称上帝的名,为某位信徒提供个人化的预言,反而让他变成另一个偶像了呢?这也是AI科技在应用时最需要注意的伦理或法律议题,并不会因为使用比较多的基督教正统神学文献训练就会比较安全,甚至可能因为拉高的期待反而加深了伤害。
因此,虽然任何一个AI对话机器人都有其预设的价值观,ChatGPT也不例外[14],但是重点不在于是否要完全排除这些价值观,而是在于是否能顺藤摸瓜,更善用驾驭它来成为信仰的媒介。其实,开发完全属于基督信仰的AI除了现实面的经费、资料、市场、人力、标准、效能等等问题,其实也反映出许多基督徒可能过于期待一个绝对正确的属灵权柄而少有反省思辩的信仰习惯。因此笔者个人认为,或许等到技术更为成熟与成本可以负担,大多数基督徒也都了解这类AI使用的利弊得失且有善用的经验,再来思考规画这个议题比较适合。
笔者以为目前的阶段,技术与能力上比较可行的是利用ChatGPT已经开放的外挂功能(Plugin)与应用程式界面(API)来设计一些符合基督徒习惯的应用程式或小工具。但是与其倾众教会之力建造一个「属灵的AI」导致信徒的思辨能力被限缩在较小的范围,笔者更期待教会牧长投入更多时间利用这个「世俗的AI」来训练信徒思辨信仰,开拓眼界,让信仰生活落实在已经来临(而非未来)的AI世代中,或许更是道成肉身的信仰实践。