圖片提供/123RF
▎作者王道維為國立清華大學物理系教授、國立清華大學諮商中心主任、國立清華大學人文社會AI應用與發展研究中心副主任
自從筆者發表第一篇關於ChatGPT與基督信仰的文章後,就開始接到一些機構的邀請進行相關演講或採訪。筆者發現有些問題是我文章中比較沒有明確提到的部分。為方便有類似問題的朋友(可能以基督徒為主)可以先行參考,筆者整理常被詢問的七個問題並給予一些回應,以下為問題五。
Q5: 在可以預見的未來,是否有可能開發基督教信仰的大型語言模型?或是如何植入AI關於基督教的價值觀念?
A5: 從技術層面而言,開發基督教信仰的大型語言模型完全是有可能的。事實上,Meta最新發布可以翻譯超過1000種語言的大型語言模型就是靠學習宣教士的聖經翻譯的結果[12]。雖然OpenAI開發ChatGPT經歷過多年的努力與百億美金的投資才能有今日的效果,但是不論Google、Meta、其他研究機構或開源社群都有一些其他類似的AI機器人逐漸被開發出來,而且新的技術所需要的訓練資料與訓練經費也越來越小。所以這部分可以是樂觀看待的。
但是除了技術面以外,這件事更重要的思考面向是關於背後的動機與後續的倫理問題。由於大型語言模型主要是為了往「通用型AI」的發展而開發的,藉由廣泛的語言文字資料來創造一個可以連結不同知識與不同應用場景的AI對話機器人。如果要在基督信仰的立場上建立這樣的模型,代表會大量(甚至可以說是有偏誤的加強)使用基督教的文獻、資料或相關資訊,也必然使用只符合特定宗教價值觀的「虔誠基督徒」來作人工標註或篩選工作。
但是這樣作的問題在於,我們幾乎可以預見會造成對其他類型資料的缺乏與偏誤(例如其他宗教自身的資料或異端學說的原始資訊,當然也有可能是當代不符合主流基督教會價值觀的世俗言論等等)。這非常可能就使得整體的資料產生偏誤,變成一個只會模仿基督教的術語,卻一點都「不屬靈」的對話機器人,恐怕還容易出現宗教歧視的語言或傷害,也讓整體回應的流暢度更差(因為繼承基督教會現有的同溫層語言而失去社會的其他資訊),所以這部分實在需要更仔細的評估,免得過於樂觀而失望。
筆者需要再次提醒,大型語言模型並不是大型語言資料庫,所產生的文字「都是重新組合過的」,不是原文照抄甚至難以追朔所參考的資料來源。畢竟在AI模型動輒數百億的超大參數空間中,很容易因為某種開發者自己都想不到的特定提示、符號、或表達的方式而繞過本來預設的表達模式,讓AI展現出完全不同的另一方面。這在ChatGPT中也一樣存在(所謂的暗黑模式[13]),而且很可能在技術面是無法完全去除的。此時如果這個被賦予神聖期待「屬靈的AI」結果卻說出不得體或不符合純正信仰的內容,又該如何向那些盲目相信它的信徒負責呢?假使它冒稱上帝的名,為某位信徒提供個人化的預言,反而讓他變成另一個偶像了呢?這也是AI科技在應用時最需要注意的倫理或法律議題,並不會因為使用比較多的基督教正統神學文獻訓練就會比較安全,甚至可能因為拉高的期待反而加深了傷害。
因此,雖然任何一個AI對話機器人都有其預設的價值觀,ChatGPT也不例外[14],但是重點不在於是否要完全排除這些價值觀,而是在於是否能順藤摸瓜,更善用駕馭它來成為信仰的媒介。其實,開發完全屬於基督信仰的AI除了現實面的經費、資料、市場、人力、標準、效能等等問題,其實也反映出許多基督徒可能過於期待一個絕對正確的屬靈權柄而少有反省思辯的信仰習慣。因此筆者個人認為,或許等到技術更為成熟與成本可以負擔,大多數基督徒也都瞭解這類AI使用的利弊得失且有善用的經驗,再來思考規畫這個議題比較適合。
筆者以為目前的階段,技術與能力上比較可行的是利用ChatGPT已經開放的外掛功能(Plugin)與應用程式界面(API)來設計一些符合基督徒習慣的應用程式或小工具。但是與其傾眾教會之力建造一個「屬靈的AI」導致信徒的思辨能力被限縮在較小的範圍,筆者更期待教會牧長投入更多時間利用這個「世俗的AI」來訓練信徒思辨信仰,開拓眼界,讓信仰生活落實在已經來臨(而非未來)的AI世代中,或許更是道成肉身的信仰實踐。