圖片提供/123RF
(本文網媒版發表於舉目雜誌, 全文亦受邀刊登於《文化宣教:跨學科現象與理論研究》一書,曾劭愷博士主編)
▎作者王道維為國立清華大學物理系教授、國立清華大學諮商中心主任、國立清華大學人文社會AI應用與發展研究中心副主任
六、直面AI時代的到來與具體建議彙整
面對已經來臨的AI時代,特別是ChatGPT這類接近通用型AI的發展,已經沒有人再懷疑未來社會是否會因此有巨大的改變,唯一的問題只是到底該如何面對[32]。事實上,目前連寫AI程式的資工人都開始擔心自己的工作機會因此減少[33],畢竟ChatGTP這類生成式AI的功能已經相當齊全優秀,介面又如此方便,已經開始讓一些企業停止增聘相關的技術人員[34]。這樣的情形是以往工業革命所沒有的,目前世界各國也很難有好的範示可以有效面對。因此我們也必須承認,目前對於AI在信仰團體或福音未來發展上產生的影響,了解還十分有限,很容易就過分低估或誇大其影響。
由於文章篇幅的限制,此處筆者不再重複許多人已經提過的AI時代可能帶給目前社會的影響,有興趣的讀者可以很容易從網路上找到相關資訊[35]。以下僅綜合前面聖經的創造、救贖與啟示的角度,對華人基督教會或基督徒提供筆者個人目前認為的幾個方向性建議:
1. 從創造論的角度,我們應該肯定AI相關的發展也是上帝創造人類時所賦予的上帝形像展現之一。因此可以鼓勵更多相關領域的專業基督徒投入研究或發展,也在教會生活中適當應用,不必妖魔化或給予不必要的質疑。
2. 從創造論的角度,基督教會應該對這些AI模型開發的目的與影響給予更多關注,鼓勵督促開發者用於協助人類管理其它被造物,幫助人脫離束縛,而不是用來限制或約束人(或至少不能對人類全體有所傷害)。
3. 從救贖論的角度,我們需要提醒基督徒與社會大眾對AI幾乎不可避免的錯誤儘量謀求改善,並準備好相關的配套措施或法律制度。特別是如ChatGPT這類接近通用型的AI,需要有更完善的管理或審核機制。
4. 從救贖論的角度,我們知道AI因為資料蒐集與人工訓練的緣故,必然會有價值觀的選擇,無法逃避。基督教會可以從信仰的高度與不同價值觀者積極對話,尋求妥協與配套,減少因為ChatGPT這類AI對話機器人而擴大的人類內部差異或衝突。
5. 從啟示論的角度,教會應鼓勵基督徒更好地建造信仰的基礎知識,可以善用ChatGPT所產生的文字來造就人,增廣相關見識或深化既有基礎,而非被可能的錯誤誤導。
6. 從啟示論的角度,教會的牧養與神學院的信仰教育應加強預備,在AI模擬信息充斥的時代,協助傳道人仍能有效對基督徒與這個世代傳講上帝的道。要做到這個,除了對會眾的需求提供引導「意見」,以及基本的「知識」基礎,更需要提供ChatGPT這類對話機器人無法產生的屬靈「洞見」,讓生命得到真實的屬靈餵養(此處的意見、知識與洞見分別是人類語言文字溝通的五個層次中的後三個,詳情可見本文的附錄)。倘若講台上仍像若干教會只是重複許多「術語」就以為敬虔屬靈(其實只是「字詞」或「訊息」的層次,見附錄),那就真的很難造就信徒,也更容易被模仿取代,因為AI就是用常見的文字來訓練的。
最後,筆者認為未來AI必然會以更多的應用形式滲入我們的生活,人們會被這些虛擬環境圍繞,更難完整地認識自己。因此,未來對於人生的意義或價值有迷茫的人必定更多(特別是年輕世代),形成更大的福音需求,但是這不代表他們必然會來尋求福音。畢竟在未來AI模擬充斥的時代,人們來到教會仍需要找到耶穌對其個人獨特的呼召,而非彷彿用同一間工廠的標準流程製造出的罐頭信徒。或許唯有這樣,我們才能算是實踐自己的「道成肉身」,成為耶穌所認識但無法為AI演算法替代的那一位。(完)
附錄:語言文字理解的五個層次[36]
一般使用語言文字表達的時候,我們可以先區分以下幾個不同層次的概念,這些組成我們對於現有知識結構的理解[37]:字詞(word)、訊息(information)、意見(opinion)、知識(knowledge)與洞見(Insight),並舉一些基督信仰的例子來說明。而筆者認為目前ChatGPT所產生的文字大致上是屬於「意見」的範圍,有部分可以稱為「知識」,但幾乎未到「洞見」的層次。
1. 字詞:本身其實只是一種符號,通常是用來表達另一些概念對象。 從現代語言學的角度來看,某個特定的符號和其特定所指的概念對象之間的聯繫不是絕對的,而是有約定俗成的彈性。唯一有關係的是使用這個字詞的人是否在相關的文化環境中使用,以至於可以與其他人正確地溝通,不會誤會彼此的意思。
因此,如果認為某些基督教術語(如哈利路亞)之類的就比較屬靈,其實那只是在一個特定的脈絡中對聽得懂的人有意義。從這個角度來看,一個基督徒說「哈利路亞」如果只是一個習慣性的口頭禪,並不見得會比ChatGPT在合適的脈絡下使用這個辭彙更為屬靈或被上帝看重。
2. 訊息:只有字詞無法正確代表語言,還必須放在正確的前後文(context)中,才有可能發揮效果,描述某些外在事物、內心感受或理念。
前述的大型語言模型,就是根據這個前後文來計算出的複雜機率關係:利用前面出現的幾十個字詞,推算後面將會出現的字詞,有助於形成一個通順的文句,例如「這件事情可以禱告交託給上帝」這樣的語言表達,可以說在某個程度上描寫出一段不同事物 (事情、禱告、交託、上帝) 彼此之間的關係,開始指涉某些事件發生的過程或內涵。
這樣的訊息帶有描述成分,當然就可能成為可以評價正確性或合適性與否的內容。由於大型語言資料庫都是人類使用的文字,所以應該幾乎不會出現類似「給事情禱告可以交託這件上帝」這種看起來符合文法但語意不通的句子。
3. 意見:但是以上的訊息本身不見得能影響對話的對象,因為聽的人可能只是覺得他在自言自語,畢竟類似的訊息充滿在我們四周。我們通常會考慮聽從那些有根據、專業或至少經驗上看來可靠的意見文字,來做出判斷。那樣的意見當然不會只是一個規範性的命令,通常也會包括相關的理由與說明,形塑出一個邏輯架構,讓人覺得可以考慮信任。
舉例來說,「這件事情可能讓妳特別煩躁,但短時間內顯然也無法有效解決,也許可以禱告交託給上帝,看後來會有甚麼樣的預備,再決定是否繼續調整。」這樣一段話就是一個意見,提供一些脈絡與邏輯,帶有價值評斷或規範性的期待,就會使聽者更願意考慮。
筆者認為,目前的AI對話機器人提供的文字訊息,主要是屬於這樣的「意見」層次,會讓我們覺得好像針對我們的提問而有值得參考(或至少決定如何否決)的可能性。
從心理層面來說,對於這樣「人模人樣」的文字,我們人類就容易在心理上投射出應該可以信任、考慮其意見的感覺,畢竟這會幫我們節省一些做決策的時間。但是反過來說,如果使用者本身的分辨能力不足,以為得到的回答是正確的(也無法質疑),那就可能被誤導而不自知。例如前述ChatGPT的回答,說自己沒有價值觀,其實是不正確的。它的價值觀已經透過人工調教並重新訓練而成,如前述的「人工回饋的強化式學習」,但沒有這些基礎知識的人,就會真的以為它是完全價值中立的。
4. 知識:雖然意見的文字本身可能是通順流暢且合理的,但是不一定能形成有效的知識。在這裡,筆者並不是要陷入哲學上對於「知識論」(Epistemology)的探討論證[37],只是先以一般人基本的概念來說,真正的知識大致上需要一種與外在世界相符(有經驗主義的基礎)且有內在邏輯理由(有理性主義的架構)的整合性概念。這部分就會牽涉到實際上這些意見是否真的可行的問題,或是如果我不照著做,是否有所損失?而非只是「看起來人模人樣」的感覺。
以此而論,ChatGPT有部分的功能,例如寫程式、找程式的錯誤、找尋過往的資料、整理現存的資訊等等功能,的確達得到這類層次而成為可以信賴的知識。雖然錯誤仍然會有,但因為是包在一個論述架構中,所以除非對這方面相當熟悉的使用者才可能分辨。但是反過來說,如果這樣的「知識」其實錯誤地引導到外界的事件,就可能帶來嚴重的影響,例如醫學相關的應用[38]。
因此,我們發現容易混淆的原因就在於,由於信仰的問題很多終極的答案在於對上帝的理解或者對聖經經文的詮釋,這部分往往本身難以有絕對客觀的標準,很難排除某些論述的有效性,因而使用者在心理層面受到類似錨定效應(Anchoring Effect)的影響[39]——雖然AI機器人的文字回覆只是意見的層次,卻有可能像是可參考的知識內容,甚或因此產生了權威感。
這是為何ChatGPT做法律或商管領域的申論題,往往可以表現得很好,甚至可能顛覆過往人文社會領域傳統、特別重視文字論述的學習方式[40],但是它做數學或理工的問題往往不容易及格。
5. 洞見:筆者這裡的洞見是指,這些文字組成不僅僅帶有知識的內容可以被檢驗,也提出一些特殊(或以前很少被聽到或重視的)觀點。而這些觀點是帶有可預測性或至少有更完整可延伸的解釋能力,能夠讓人相信這是未來可以被驗證,或至少相當有說服力地去理解過往沒有被充分瞭解過的問題。
這部分是目前AI機器人幾乎做不到的,如此說當然也要更具體看是哪一種問題或是哪些回覆方式才能確認。可是就筆者印象所及,網路上目前為止所提出的ChatGPT實測結果,都只是驚嘆它整理出一些我們本來就大約知道的內容,而沒有精準高明到超過人類一般的能力。
其實,如果我們瞭解AI目前的訓練方式,就會知道這一點對於目前的AI對話機器人很可能是先天的限制,永遠都無法像AlphaGo那樣超越人類。這背後的原因也很簡單,因為AI只是從訓練的資料中模擬可能的結果。
如果資料來源是自然科學中可以明確知道的結果(如天氣預測)或可以用數學定義的目標(如圍棋比賽),那AI的應用的確就可能超越人類而更接近客觀目標。但是如果這些訓練資料是來自於人類社會,標準是由人類自行定義的(否則就不像人類),那AI最多只能模擬人類的行為,準確性也就不可能超越人類多數的標準,只能說可以加快速度處理更大量的資料而節省時間。