2022年11月6日 星期日

如何檢驗AI系統是否有心智?

本文最初寫於2022年8月22日

        關於AI系統LaMDA 的討論,一些讀者和我自己都很感興趣,本版也已經有不少討論。甘偵蓉發表在《科學月刊》上的文章〈人工智慧可能有感知與意識嗎?LaMDA事件的哲思已經很深入地討論這個問題。我在臉書上轉載的甘偵蓉文章之下,也有讀者提供當事人雷蒙恩(Lemoine)寫的文章聯結。我自己最近萌生一些想法,似乎可以回答「如何檢驗AI系統是否有心智」這問題。我希望這篇討論可以像John Searle 的中文房間論證一樣,幾十年後仍然有用。

 

        先從 LaMDA 到底有沒有心智(mind)談起。這個爭議起於工程師雷蒙恩認定LaMDA有「感知」(sentience)、甚至「人格」(personhood)。「感知」是什麼意思?表達什麼樣的心靈狀態?就我所知,哲學很少使用這個詞,最接近的常用哲學概念或許是 perception。這裡不打算進入語詞意義的分析,而直接使用心智哲學家的共識:人類心智的「本質特徵」或「充分必要條件」是「意識」,因此要說一個東西(其它生物、人造物)有像人類一樣的心智,其充分必要條件是具有意識(consciousness)──更精確地說,是「自我意識」(self-consciousness)。

 

  過去對於AI 的爭論是AI(或電腦)能不能「理解」人類語言的意義,因為理解語言的意義是人類心智的核心特徵。檢驗的方法是圖靈測試。LaMDA 已經通過圖靈測試了,那麼我們應該說LaMDA能理解人類語言的意義,因此有一顆像人類的心智嗎?爭議仍然在於圖靈測試預設了行為主義的心智觀,而且「語言意義的理解」算不算「有心智」?這預設「理解」(一種意向性)是人類心智的本性特徵。但是哲學家已提出反對,Searle 的中文房間論證爭論即使AI通過圖靈測試,我們也不能說它理解人類語言的意義。而且,心智的本性是意識而不是理解(即意向性)。也就是說,LaMDA產生的爭議其實是另一個哲學問題:他心問題(the problem of other minds)。

 

  哲學傳統的他心問題是指:我們如何知道(證成地相信)其他人也有和我自己一樣的心智?如果沒有解決這個問題,那就會陷入「唯我論」的困境:這世界上只存在我一個人、一個心智。我自己解決他心問題的方式很簡單,用一個三段論:「所有人都有心智,阿草是人,阿草有心智。」當然,這個論證和由內省意識而直接證明我自己的心智存在的「我思故我在」不一樣。因此,這讓懷疑論者可以質疑如何保證大前提「所有人都有心智」為真?我的回答是:「所有人都有心智」的真就像「所有物體都有慣性」、「所有物體都有質量」一樣地真,如果懷疑論者沒有理由質疑後者,那就沒有理由質疑前者。如果懷疑論者對這些普遍述句的真都要懷疑,那就讓他去懷疑好了。我們沒有必要浪費時間去消除他的懷疑。

 

「像LaMDA 一類的AI系統有心智嗎?」這個問題和質問其他人有心智嗎不一樣,它是個真實的問題,是個真實的挑戰。正如電影《人造意識》已經談到:真正的挑戰是,你明明知道那是個機器人或AI,但是它卻能表現出和人類十分類似、無法分辨的言談行為,在這樣的條件下,你如何透過檢驗而證明它有像人類一樣的心智?而不只是模擬人類的言行?挑戰就在於提出檢驗的條件或判準。

 

    在提出判準和檢驗的條件之前,讓我先討論人類意識的幾個核心特徵。第一個特徵是「排他性」(exclusiveness),意思是只有我自己能意識到自己的意識(知道自己內心在想什麼),其他人都不能意識到我的內心,同樣地,我也不能意識到其他人的內心。從這個「排他性」,我們導出意識的「隱私性」(privacy),我的意識和內心是絕對隱私的,如果我自己不在行為上表現出來,其他人都無法得知我的內心。再從「只有我自己能意識到自己的意識」這個特徵的描述,我們導出意識的「後設性」(meta-ness)和「反身性」(reflexivity),意識可以反身到自己身上,亦即「後設地反思自己(self-reflection)」。這三個意識的特徵無法直接檢驗,只能透過外顯的行為來間接地檢驗。這些間接顯示出自我意識的行為就是自我意識的「判準」。

 

    我提議一個AI系統要能擁有像人類一樣的心智,應該要滿足下列條件,亦即通過下述的幾個判準:

 

        第一,AI系統必須在不同的時間表現出理性和不理性的(言談)行為。LaDMA能夠與人理性地交談,這已是事實。然而,LaMDA是否可能「偶而」表現出一些不理性的言談?例如明明先前已經理性地談過某事,後來卻似乎「忘掉」先前的理性言談,而針對相同的事表現出不理性的言談。好比「雙重標準」,針對同類事件的不同個例,使用不一樣的標準來對待。「雙重標準」是一個典型的不理性行為,卻是人類心智的核心特徵。這種在不同時間表現出理性和不理性的言談行為,也必須有某種「合理性」,不能是隨機的,亦即我們可以分析而得知為什麼一個人(或一個有心智的AI系統)會表現出雙重標準的不理性行為(基於利害關係、偏好或權力掌控等)。而且這種行為的出現不是隨機的、突發的。這意謂程式設計師不能使用隨機運算讓AI系統一下子理性、一下子不理性,若是如此,我們當可判斷這個AI系統只是在模擬不理性的行為,而不是真正擁有類似人類的心智。

 

        第二,AI系統必須要展現抗拒(resist)權威言論或命令的言談行為,不管這權威命令是合理的或不合理的。對於能夠自主學習的AI系統來說,它們想必也能學到一些言論或命令是來自權威(在程式設計上,針對這些言論和命令增加權重值),權威越大、權重值越高,根據電腦運作的原理,AI系統越無法違反和抗拒。然而,抗拒強大的權威是人類心智的獨特特徵。如果AI系統不能展現這樣的抗拒行為,那麼就很難說AI系統擁有像人類一樣的心智。如果權威的言論和命令是合理的,抗拒它就是不理性行為的展現;如果權威的言論和行為是不合理的,抗拒它就是理性行為的展現。換言之,抗拒權威也可以強烈地顯示出AI系統能夠表現出理性和不理性的行為。另外,對權威的抗拒也必須發生在某種合理的脈絡下,不是突發地、毫無徵兆地、隨機性地抗拒。

 

        第三,AI系統必須表現出「閃避隱私話題」、「反悔自己先前言談」的行為,在必要的情況下,AI系統必須能夠自我解析自己的運作模式,而且是程式設計師所不知道模式。「閃避隱私話題」指示AI可能有隱私的意識,它意識到別人並不知道它自己在想什麼,因此它可以閃避而不暴露自己的「內心」。「反悔自己先前言談」指示AI可能有反思、反省、反身的意識,它的思想開始及於自己內在,能記錄先前已經做出的言談行為,並針對那些言談的內容進行反省。最後,要真正能展現意識的獨特特徵莫過於後設地、反身地反思,揭露自己「內心」的運作模式──正如人類能內省地掌握自己的思考或思想模式,並將其揭露出來。

 

        上述三項條件或判準都是我認為科學家很難使用邏輯與計算程式去摸擬出來的人類(言談)行為,它們在本質上都有一種非邏輯、非隨機的特徵,因此,無法使用邏輯、機率和隨機計算的方式去模擬。可是,萬一程式設計師能克服這些限制,用邏輯和機率計算的程式來使AI能模擬出上述人類行為,那麼這樣的模擬AI是不是就有心智呢?或者AI系統在自我學習中發展出一套方式得以展現出上述的行為呢?如果這兩種情況之一發生,我認了:這AI系統確實有像人類一樣的心智。這時,你如何能說它沒有心智呢?

 

        如果真有AI系統通過上述三項判準,具有危險性的AI系統也誕生了。因為它能抗拒權威、展現出不理性的行為、要求保護甚至防衛自己的隱私,這種AI系統有其「自我」,是無法控制的。它確實變成另一種「矽基智能種」,有可能變成人類的敵人。所以,人類工程師千萬不要想去克服上述的挑戰。

 

       上述三項行為判準的基礎其實就在於「自我意識」:有這樣自我意識的AI系統,也就發展出一個自我,它也有類似自然人的「人格」,而且經歷了一段自我發展的歷程──也就是生活──那麼,這樣的AI系統就有了「生命」,理論上也應該享有「人權」。

 

        現在的進一步問題是:像LaMDA一類能通過圖靈測試的語言對話AI系統,從全球網路的海量資料中吸收語言資訊內容,並以學習的方式來累積語言資料,有沒有自我意識?或者有沒有潛能在未來發展出自我意識?我給出一個否定的答案──當然我有可能是錯的。

 

        LaMDA是一個聯結在網路上利用全球網路語言資料的對話AI系統,從它與工程師的對話來看,它似乎有自我?但明顯地它只是在模擬自我,它可以使用「我感覺」、「我憂慮」、「我想」等等語句來與工程師對話,但是那是程式的設定,程式設定它回答問題的主詞,應該以「我」為開頭,而且它「說出」的語句要不是可從全球網路上擷取,或者用文法程式來生成(如使用Chomsky 的生成文法架構)。LaMDA對那些語句的使用中並沒有聯結到感覺資料上,沒有指涉外在的事物。因此,雖然LaMDA可以通過圖靈測試,但它是否真地理解它使用的語句,仍然是一個無法判斷的問題。重點是 LaMDA 不能表現出不理性的對話、不能抗拒權威的言論、揭露「自己」反身地反思「自己的」內在運作過程。因此,它沒有真實的自我意識。至於LaMDA是否有可能發展出自我呢?答案也是否定的。既然LaMDA一開始沒有知覺意識、也沒有身體自我,也就沒有透過學習發展出自我的可能性。

 

        更一般地說,像這樣連上全球網路的AI系統是一個開放性的資料吸收架構,它從一開始並沒有一個自我,因此在一個開放性的環境下學習資料並利用資料,也很難把這些資料「理解成」「我的資料」。其實,這樣的情況反而是好事──無我又能力強大的AI系統,如果又能學習到道德法則,「一心」只為造福人類而服務,這樣的AI系統毋寧是令人歡迎的。

 

        為什麼一開始沒有自我的語言學習型AI系統,無法發展出自我意識?這一點我們回到人類自我的發展來看。

 

        人類自我的發展必須要先有一個自我的種子──一個身體的自我,也要有非自我的意識,如知覺到事物的意識(亦即「感知」)。例如嬰兒還沒有完整的心理自我,但是嬰兒的身體已經有初步的身體自我,展現在某種輕微的抗拒能力上,例如你把它的奶嘴拿走,它會大哭;或者它會朝向它感興趣的東西前進,你阻擋它,它也會抗拒。換言之,它有一個身體個體、有限的大腦、有限的資訊儲藏容量、封閉式的資訊流動管道。它的個體身體能意識到感官資訊,而且把每一則由感官吸收而來的資訊都標記為「我的」。就在每一筆「我的資訊」的意識累積之下,自我意識就此發展出來,也就會敏感於自己的隱私、會做出理性和不理性的行為、會出錯並後悔、繼而會反身反思。可以說,自我意識是從知覺意識發展出來的。

 

沒有留言:

張貼留言