前陣子一個令人矚目的科技新聞是一位Google 工程師檢驗一個AI對話程式,被說服該程式有自我意識,而被Google 以違反保密協定為由而停職。
一開始,我只是由一些朋友的臉書轉載相關報導而獲得相關訊息。沒有去看工程師與AI的對話內容。但是我馬上聯想到電影《人造意識》(Ex Machina)的情節內容。也回應一些朋友的想法。
I.
這個AI程式究竟只是在精巧地「模擬」人的對話,或真地具有自我意識、能夠思考?不管如何,它的成果實在太棈巧了,成功地說服工程師相信它有自我意識。這也意謂著七八年前完成的小品科幻電影《人造意識》裡設想的場景成真。
《人造意識》的情節是一位天才科學家納森創造一個AI機器人,他把它造成女性的外表,而且賦予「她」一張清純無辜的臉蛋,也有一副窈窕的身材,但是,身體的部分結構如手腳故意使用透明材質,使人們一眼就可看出「她」是個機器人。
納森找了一個年輕工程師迦勒來測試「她」究竟有沒有自我意識。
一開始,納森與迦勒討論他們的任務。在對談時,他們明白地談到圖靈測試。納森認為圖靈測試不足以測出自我意識,因為AI總是可以模擬到讓你無法分辨出誰是人、誰是程式。
事實上,根據哲學家 John Searle,當年圖靈測試想測的是意向性,亦即,電腦究竟能不能思考?其關鍵在於電腦能不能理解自然語言的意義?Searle 在1980年提出一個「中文房間論證」,論證即使使用數位編碼的電腦程式通過圖靈測試,我們也不能說它有意向性。這個論證在1990年代間(我的學生時代)已經被介紹到台灣了。
圖靈測試是你不能看見被測試者,你只能根據與一台電腦和另一位真人的回應來判斷。如果你無法判斷誰是真人、誰是電腦,那麼就可以說電腦能夠思考(能理解語言的意義)。
《人造意識》直接討論圖靈測試是否可以用來檢驗出AI是否具有意識?但是困難總在於如何分辨那是AI模擬的結果,或AI真地有了意識(即心智)?
納森認為,真正的挑戰是:你明明知道你眼前的被測試者是個機器人,但是你得設想測出它/她有沒有意識。年輕的工程師迦勒擔任起測試的責任。其實,這個測試已經轉變成另一個哲學問題:他心問題,如何證明其他心智的存在?或者說,機器心智、甚至機器人性的問題:如何證明機器擁有像人一樣的心智?甚至擁有像人一樣的人性?
年輕的工程師迦勒後來真地被AI機器人說服「她」確實有自我意識。
「她」畫畫、「她」說喜歡迦勒、期待與他談話等。有天,利用停電的機會,監視器失去作用,「她」告訴納森真相、「她」控訴納森的不人道,她想逃出納森設定的囚籠,「她」甚至讓迦勒產生強烈的憐憫情感:它就是楚楚可憐的「她」,應該幫助「她」。
迦勒與「她」一起安排了出逃計畫。但天才的納森早已料到這個結果,或者說,這就是他計畫中的一環。但迦勒和AI也不是省油的燈,兩方訛虞我詐。納森成竹在胸,以為自己早已洞悉迦勒的計畫,他與迦勒攤牌,讓他知道自己早有準備。迦勒十分沮喪,因為這一切都是納森的設計(或詭計)。但是,納森告訴他:任務是真的,雖然不是完全如計畫中進行。他興奮地告訴迦勒:你成功了。你證明了這個AI機器人有自我意識,因為它能充分利用人性的每一個特徵:誘惑、激發同情和憐憫、欺騙、詭計、謀畫等等。迦勒一臉鐵青。
他冷冷地讓納森知道:你這位天才仍然百密一疏。原來迦勒仍棋先一著,已經打開了中央控制門禁,AI機器人「她」逃出來了。
納森急忙去阻止「她」,他拿著一根鐵棍,命令AI機器人回到它自己的房間。AI機器人「她」又耳語說服納森創造的另一個全人形的機器人女僕拿刀子刺了納森。(這暗示著「她」甚至能控制其他機器人,但如何控制不得而知)。
《人造意識》的整個故事的原型仍然是「科學怪人」!自大傲慢的科學家創造出自己所無法馭駕的科學怪人。情節的安排十分巧妙,而且深具反諷性:原來最後天才科學家想要控制他自己創造出的怪物,只能靠蠻力?
這則新聞讓我聯想到的就是上面這部片子。我還沒仔細出看工程師與AI程式的實際對話。但是這位工程師沒看過《人造意識》嗎?或者他看過了,反而陷溺在影片的情節/結?
基本上,我初步研判 LaMDA應該只是十分精巧的模擬。自從DeepMind能擊敗世界第一的圍棋高手後,這一天很快就會來臨。這種圍棋程式從第一手棋「定石」,直到最後的贏棋,完全展現出深慮遠謀的樣貌。但是,它仍然只是計算的結果。而且,幾年前中國也發展出一個會作詩的AI程式小冰。所以,使用類似的技術,對話的AI程式可以使用恰當的演算法加上深度學習技術,以及全世界網路上的對話資料,深度學習讓這個對話程式讀全世界的小說、劇本、日常會話,再給這個程式指派一個目標「說服一般人相信『你自己』有自我意識、甚至有人性。」亦即通過高級、深入的圖靈測式。那麼,基於電腦強大的演算能力,這個對話程式要達到這個目標應該不太難?
我找到了工程師Blake Lemoine 和AI對話程式LaMDA的對話之中文翻譯。我的感想和判斷是:
不管這對話程式有沒有意識,它實在太強了。但是也正是因為它太強了,使得它可能沒有意識: too perfect to be true.... 多數成人(無疑有自我意識)都無法通過這種對話的檢驗--像我大概無法立即創作出一個動物寓言--正如 DeepMind 圍棋程式的棋力贏過所有人類。最有可能是 google 的工程師給它一個目標:讓高明的工程師相信它有意識。而它通過檢驗了。
沒有留言:
張貼留言