圖片提供/123RF
(本文網媒版發表於《舉目》雜誌:https://behold.oc.org/?p=59126, 全文亦受邀刊登於《文化宣教:跨學科現象與理論研究》一書,曾劭愷博士主編)
▎作者王道維為國立清華大學物理系教授、國立清華大學諮商中心主任、國立清華大學人文社會AI應用與發展研究中心副主任
2022年11月30日,美國科技公司OpenAI公開發表目前最火紅的AI對話機器人ChatGPT[1],兩個月內吸引超過一億人註冊成為用戶,遠快過過去所有的網路應用程式[2],真的可以用橫空出世來形容。ChatGPT可以就開放式的問題提供意見,又或是編故事、寫詩詞、抓重點、問判決、草擬文案企劃、轉換表格或甚至寫程式debug等等,只要能透過文字表達的幾乎無所不能。在這之前,只有如鋼鐵人那樣的科幻電影情節中,才會有個機器人幾乎可以聽懂任何問題來回應主角的提問,而這幾個月來已經出現無數的文章在作相關報導,彷彿AI時代真的已經來臨[3]。
對於基督徒而言,這波人工智慧(Artificial Intelliegence, 以下都簡稱AI)的浪潮也帶來了一些重要的信仰問題。例如,基督信仰中,上帝是萬物的創造者,人類也按照上帝形像與樣式所創造的,有著不可取代的價值和尊嚴。但是,當AI的發展(特別是本文所要談到的ChatGPT這類近乎通用型人工智慧)似乎越來越接近人類的智慧時,基督信仰該如何回應這些挑戰?應該要更為善用這樣的工具?還是應該把AI當作魔鬼的化身,拒絕其發展?是否仍能提出有價值的觀點或提醒?或是隨波逐流被動接受世俗社會給我們的框架?事實上,筆者相信這些問題不但是對基督徒有重要意義,也是許多社會大眾需要一起認真面對的問題,而基督信仰的若干基本原則也可以給我們一些重要的提醒。
本文將先簡介目前AI運作的基本原理,並約略從ChatGPT這類AI機器人的訓練方式來了解其特殊之處。進而分別從聖經的創造論、救贖論與啟示論來看AI的發展如何與基督信仰的核心有所呼應,並對照出差異。最後本文也會特別從一般語言理解的五個層次(字詞、訊息、意見、知識與洞見)來檢視ChatGPT與使用者的心理互動。希望能以此來說明基督教會在牧養現場或社會關懷上可以更重視哪些方面的調整,好在這個「已經來到」(不再是未來)的AI時代能有更為「道成肉身」的信仰實踐[4]。
由於文章篇幅不小,以下先提供本文大綱給讀者參考:
一、簡介AI的基本圖像與常見誤解
二、ChatGPT:結合流利程度與回答結構的訓練方式
三、從創造論看ChatGPT:上帝形像的必然彰顯
四、從救贖論看ChatGPT:AI原罪需持續改善但受限於人類自身
五、從啟示論看ChatGPT:可承載上帝的道而帶來牧養新挑戰
六、直面AI時代的到來與具體建議彙整
附錄:語言文字理解的五個層次
一、簡介AI的基本圖像與常見誤解
雖然本文的主要內容是談基督信仰與ChatGPT的關係,但是後者作為當前AI最為大眾所熟知與熱衷討論的單一產品,仍是應該在整體AI的架構下有所認識,才能避免過度的想像而造成不必要的誤解[5]。坊間或網路上介紹AI的書籍文章已經相當多,筆者此處就主要從AI整體的三大結構,分別是資料來源、演算法與應用場域,來勾勒出粗略的圖像,幫助讀者更容易了解本文後來提及的一些觀點並釐清常見的誤解。
1. 目前AI是以數據為基礎而非規則為基礎
AI的發展是從20世紀中期就已經萌芽,至今已超過60年,並非新穎的概念或技術。這半個世紀以來AI經歷了幾波浪潮與消退,如今在2010年後又重新再起。其中固然與硬體設備的突飛猛進並網路大量數據的利用有關,但最核心的原因仍是其核心關鍵,機器學習(Machine Learning)的演算法,成功擺脫過往「以規則為基礎」(rule-based)而轉用「以數據為基礎」(data-based)的架構來建造,才可能開始讓電腦有效的模擬出一些人類的複雜行為,如影像辨識或語音文字生成。
例如,若目的是希望電腦自然地組織人類的話語來回答(而非制式的模板),傳統的想法是需要先教電腦關於語言學的基本知識,例如哪些是名詞、動詞或介繫詞等等,才能放心讓它來組織,但這樣的效果仍然相對呆板且錯誤百出。目前的AI發展幾乎已經完全放棄這條進路(包括本文的主角ChatGPT),而是讓電腦直接讀取大量的自然語言文本,藉由計算同一個字詞在不同前後文中的相對出現機率,使其模擬在特定脈絡中的文字表達。而目前許多人常用的Google網路翻譯也是因為採用這類演算法而大大提升其可靠程度。
2. AI高維度空間中的模擬計算與人類大腦不同
如前所述,AI之所以可能模擬人類的某些特定的行為(例如影像辨識、寫文章或下圍棋等),並非事先設定好特定的規則來達到目標,而是利用已經標註好的大量數據作為基礎,讓機器學習的演算法(如類神經網路,Artificial Neural Networks)中大量的參數可以自動調整,模擬出希望得到的效果。由於這樣的模擬過程是在超高維度(數百到數千萬或更多的參數)空間中所作的計算,因此往往需要大量的計算資源與大量的數據來訓練校正。
但麻煩的是,因為有如此多的參數可以調整,所以萬一結果有錯,幾乎不可能找出可解釋性的理由來除錯,只能不斷try and error。因此AI的計算方式與人腦的學習模式是非常不同的(人腦並不需要這麼多的資料來學習),所以我們目前完全不需要以為現在的AI彷彿有人的意識或靈魂。即使如此,對人類社會的影響也已經足夠巨大。
3. AI的應用幾乎都受限於特定的範圍或形式
AI的應用領域可以粗分為「弱AI」、「強AI」與「超級AI」三個類型或階段。當前所有的AI產品都是屬於弱AI的階段,需要針對某個特定的功能來作數據標註的處理與演算法的優化,因此也只能應用於某些特定的領域(例如AlphaGo只能下圍棋),或以特定的方式來接收資訊並呈現結果(例如ChatGPT只能以文字輸入與輸出)。強AI也可以稱作「通用型AI」(Artificial General Intelligence, AGI) ,代表可以在相當廣的範圍內處理各種類型的資料或功能,彷彿人類大腦所能作的許多不同工作。
本文所討論的ChatGPT若限制在文字處理的範圍內,可以算是當前最接近這個概念的AI產品,因為可以展現各種不同的功能(創作、回答、翻譯、改寫等等)。而超越人類智慧的超級AI目前可能是一個概念上的推演,僅出現於電影小說中。許多對AI內涵不夠了解的民眾可能因為某些新聞渲染而受到影響,以為目前的AI就要進入具有自我意識或主體性的能力[6],但其實這更多是因為人類自己的移情作用[7],會對能回應的玩偶、動物或機器產生想像力的投射。真實的AI發展距離超級AI仍是非常遙遠,甚至可能是永遠無法達到的。
以上簡略分享的三點當然不足以介紹AI當前發展的許多豐富面向,但應該足以協助讀者有個基礎的瞭解而進一步認識當前的ChatGPT,並評估對基督信仰相關的影響。
二、ChatGPT:結合流利程度與回答結構的訓練方式
在AI許許多多的應用類型中,ChatGPT是屬於一種稱作「生成式AI」(Generative AI)的對話機器人。不同於一些常見作辨識、預測、判斷或分類的AI模型,ChatGPT是專門訓練用來從一堆輸入文字來產生另一堆輸出文字。而這些輸出的文字當然希望是人類可以看得懂,並且能夠正確有效的回應。從這樣的架構就可以理解,許多對ChatGPT的誤解是使用者錯把這個生成模型當作搜尋引擎來使用[8],以為應該可以提供正確即時的訊息[9]。這顯示人類實際的需求往往是複雜多元的,很不容易用特定功能的AI來完全滿足。
那麼ChatGPT比起之前就出現過的對話機器人(如Google的LaMDA或微軟的小冰等),又有哪些特別的能耐而造成這樣令人驚豔的成果?這部分涉及到AI對於自然語言處理的技術內涵,但我們可以簡單從三大部分來說明。或是讀者有興趣聽聽開發者OpenAI公司執行長Sam Altman接受MIT Review的專訪[10],也會更有感這趟神奇的旅程。
1. 大型語言模型
首先ChatGPT是源自GPT3.5的大型語言模型(Large Language Model, LLM)而作更精緻訓練與應用。也就是說它是透過數千億字的海量資料來作訓練,可以調整的參數高達1750億個。用這些參數來模擬每個字與前後文其他字的關係。最後再根據提問者的問題或之前的回覆來計算對應的各種文字組合機率,將整體機率最高的結果作為「答案」來提供[11]。
由於ChatGPT訓練時所用的文字資料非常多,包含不同語言的資料,以及彼此間互相翻譯對應的文字,所以它可以回答得相當流利不呆板,如果資料不足也可以從其他次要關係的資料(或甚至透過翻譯其它語言)來自動彌補相關文字,彷彿是真的有個無所不知的人類在背後回應。事實上,如果使用者直接按「重新產生(Regenerate Response)」鍵就會看到其他的文字回答。因此可知這樣AI其實無法保證這些內容是正確或適當的,只能說是根據其訓練資料而計算出最可能的「文字組合」,提供使用者參考。
2. 人工回饋的強化式學習
相較於之前的文字生成,ChatGPT成功更重要的因素,應該是透過人工標記員的反饋調教。也就是說,開發團隊(OpenAI公司)使用數十位人工標記員來給它的回答作評分[12],讓ChatGPT的文字生成模型再透過一種稱為強化式學習的方式來強迫自己將本來機率較高(但不一定符合人類論述邏輯或可能有許多偏見或錯誤的結果)的回答調整成較低的機率,直到輸出的結果是符合人類標記員所認可的標準。這種稱作「人工回饋的強化式學習」(Reinforcement Learning from Human Feedback,RLHF)[13] 的確讓ChatGPT輸出的文字免除許多其他對話機器人因為訓練資料中所包含的錯誤、偏見或不適當回應方式。
事實上,使用過ChatGPT的人會發現,同類型的問題往往也會得到類似模板的回應架構,使其內容看來更有說服力或至少有個正式文章模樣。如果刻意加入一些敏感字詞,如自殺、嚴重疾病、種族歧視等等,ChatGPT可能就會停下來說無法提供更多意見,建議詢問相關的專家或求助專業領域的工作者。雖然這讓許多獵奇的使用者可能覺得無趣,但至少減少不必要的困擾。目前因為這類生成式AI的出現(包括用文字轉圖像的Midjourney之類的其他AI工具),市場上已經開始出現「提示工程」(Prompt engineering)[14]的工作,也就是利用特定的語法讓AI作更精確有效的回應。這樣大家或許更能了解為何ChatGPT應該是一種更聰明的工具,而非更像人類的生物。
3. 使用當下的即時訓練
除了以上兩個主要的特色以外,ChatGPT也引入了一次性學習(One-Shot Learning)的方式,讓AI可以根據使用者前次的文字即時調整回應訊息,讓同一串的對話可以彷彿緊扣著主題。
畢竟我們可以想像,不管這樣的AI事先經過多少這樣的後天訓練,也不可能符合所有使用者習慣的表達方式,所以這樣的設計就讓AI當時的對話體貼使用者的習慣或預期,提升使用上的好感度。但是這個功能的問題在於,這也代表使用者可以間接引誘ChatGPT來提供不實或錯誤的回應。例如有朋友詢問2+5等於多少,GPT回答是7,但是他故意說老婆認為這個答案不對,應該是12,GPT就馬上應和者說你說得對而調整答案……(但筆者發現這類數學問題已經在現在的版本調整過,不再那麼好騙了)。若從另一個角度來看,這也會使得ChatGPT日後走向客製化的模型設計,能針對不同使用者而有特定的表現方式或功能強化,例如調教成伴侶模式[15]或其它的角色扮演。
透過以上簡單的說明,希望讀者可以了解ChatGPT這類AI機器人與人類說話表意最大不同之處在於,它並非「有意識」地提供「答案」,而只是某些文字組合與其機率。這也是為什麼它可能申論題回答得不錯,但數學題往往很差,因為他把數字當成文字在處理,尋找最可能出現的數字答案而非實際做計算[16]。因此,GPT所提供的文字組合是否能適當的「回應到外在世界」或是「邏輯前後一致且精密的正確」,其實常常還需要人類讀者自行補充許多想像與基本常識,才能讓AI的回答看起來有意義[17],絕非無所不能。但是即使如此,由於人類自己表達與接受訊息本來就不是一板一眼絕對無誤的,甚至還帶有更多「心理層面」的活動,以至於這樣的不足卻已經會帶來相當大的衝擊。這部分本文後段會有更多的說明。(待續)