這篇於2016年12月發表在臉書「陳瑞麟的科哲絮語」
前言:最近因緣際會,常常使用艾西莫夫科幻小說虛構的社會來討論一些相關議題,乾脆把它們來拿作更系統性的討論。我已經寫過討論艾西莫夫長篇小說《基地》三部曲的文章,探討我稱作「歷史限定論」(historical determinism)的議題。艾西莫夫另有一套著名的長篇機器人三部曲《鋼穴》、《裸陽》、《曙光中的機器人》,分別創造(虛構)三個截然不同的人類社會:《鋼穴》中近似集體共產生活的地球社會,人類移民外太空(稱作「外世界」)後代建立的「索拉利星社會」(出現在《裸陽》)和「奧羅拉星社會」(《曙光中的機器人》)。後兩個個別建立兩個截然不同且相互對立的社會和自由的模式,這篇文字想透過這兩個虛擬社會來討論人類社會的可能結構和對自由的限制。這是一種「模型思考法」,而且思考的是由科幻小說家所精心構思出來的虛構社會──也是未來可能的社會。
一
「索拉利星」和「奧羅拉星」人類移民外太空後建立的世界,都是大量使用機器人的社會。
在艾西莫夫的設定中,「索拉利星」的土地面積比地球還大,卻只有兩萬人口再加上兩億個機器人。每個人平均擁有一萬個機器人,而且都被分配一大片居住和生活的土地,其面積可能比整個台灣還要大!最不濟也像花蓮縣那麼大。可以說,在索拉利星,每個人都活得像遠古時代的皇帝一樣,平均有一萬個奴僕來服侍他的生活。機器人幫他們建造房舍、生產糧食、整理家務、製造貨品與他人交易,機器人搞定一切生存事務。
索拉利星的每個公民都獨自居住在自己的領地內,盡量不與他人面對面接觸,不得已就透過立體影像通訊。即使討論整個行星的公共事務亦然。索拉利人相信居在這樣的世界中,人才能得到「絕對自由」,因為在這樣的生活條件和生活空間之下,他們想做什麼就做什麼,完全毋需考慮會不會侵犯到另一個人的自由。索拉利唯一的「社會學家」這麼地評論自己的世界:「文明的結構都是呈金字塔型的。…不管你在這個金字塔下第幾層,不管你的生活有多好,你永遠都還是被剝削者。…目前在索拉利世界,人類首次全部登上了金字塔頂端。…」
問題是,要做到這樣的「絕對自由」,他們必須犧牲「情愛」和「情欲」,婚姻在小時就由政府透過基因析而指定了,夫妻只是在盡生育義務而已,不必有任何感情基礎,他們甚至視「愛」和「關愛」這些詞為下流字眼。何況,如果沒有國家許可和分配,夫妻不能生育小孩。當時機來臨時,夫妻有義務進行性行為以受精,然而,由於索拉利人把人與人的接觸視為苦差事,更不必說肌膚之親,所以「正直的索拉利人」也把夫妻為了生育的性接觸視為一件苦差事,能避則避。要長久維持這樣的世界,他們必須控制人口,計畫生育,而且由國家來培養下一代,所以他們有「胚胎學家」精心挑選「基因優良」的受精胚胎加以培育成長,不合格的胚胎就會被銷毁。孩子出生後也在「育嬰室」和「幼兒室」由專業褓姆和機器人教養長大,父母並沒有、依法也不能負責教養,生孩子的目的只是為了要補足索拉利去世的人口、延續索拉利星的存在而已。
奧羅拉星也是個機器人社會,人口三百年來恆定地保持在兩億。在奧羅拉世界,每個人擁有的機器人不像索拉利那麼多,但也足以使奧羅拉人生活在一個豐裕的社會中。然而,與索拉利星徹底不同的是,奧羅拉人喜歡與他人接觸,在政治上採取民主制度,透過選舉選出議會;在性欲上則要求欲望對象上的「徹底自由」,也就是說性欲可以指向任何對象,不管兩人是不是有血緣關係,當然,必須基於當事人的同意,不能也不可能有任何強迫或暴力侵犯的事(因為有機器人)。在這樣的社會下,奧羅拉人在一輩子中常常換伴侶,同時也不想負擔生兒育女之勞累,所以就由國家負起管控人口和教養幼兒的責任。
從小說中的描述來看,奧羅拉人和索拉利人都生活在非常「自由」和「幸福」的社會中,他們毋需為三餐、職業奔走,毋需讓自己屈服於他人(老闆)的意志之下,不用擔心受到傷害(因為機器人會保護每一個人)。兩者最大的差異就是在「性」方面:一個讓性行為變成像吃飯睡覺一樣稀鬆平常的事;一個則讓性行為幾乎被抹除掉。
二
我們可能會好奇:奧羅拉和索拉利世界真地可以達到幾乎沒有人為傷害的境界嗎?它們實現的社會是人類夢想中的善與美好的社會嗎?存在於這兩個社會中的「自由」是真正的自由嗎?要回答這些問題得仔細思考艾西莫夫「創造」(合理虛構)的「機器人社會」。
艾西莫夫科幻中的機器人不是今天現實上被數位電腦和人工智能控制的機器人,而是具有自我意識的機器人,他們懂語言的意義、能思考、因此能知道(意識到)自己的存在(笛卡兒的「我思,故我在」也有效),也能知道自己在做些什麼,能根據情勢下判斷並衡量該怎麼做。但是這樣具自我意識的機器人難道不會變成像人類一樣自私自利?自私的機器人要傷害人類易如反掌,艾西莫夫不想寫機器人迫害人類導致人類反抗的俗套情節,就發明了「機器人三大定律」:第一定律是「機器人不得傷害人類,亦不得坐視人類受到傷害。」前半句禁止機器人傷害人類;後半句則意謂機器人必須保護可能會受到傷害的人類。所以,沒有人可以在一個到處是機器人的社會中傷害其他人──即使他手中握有強大火力的武器,可以連機器人一起摧毁,可是大量的機器人會很快地制服他,將他繳械。第二定律是「在不違反第一定律的條件下,機器人必須服從人類命令。」這意謂著任何人都可以命令任何一個機器人去做任何事,可是,他無法命令機器人去做壞事:撒謊、偷竊、霸凌等等,因為那些壞事都會傷害到另一個人,牴觸第一定律。第三定律是「在不違反第一和第二定律的條件下,機器人必須保護自己。」這條定律讓機器人不會因自我意識而選擇自殺或自毁。
如果我們深入思考的話,會發現機器人三大定律不只是規範機器人行為的道德法則,也是規範「機器人社會」的「倫理公理」(ethic axioms)。在此所謂「倫理公理」不只是比喻上的涵意,而確實具有公理系統(axiomatic
system)的公理意義,因為它們能演繹出「機器人社會」的一切合倫理的可能行為;當然它們也是「機器人社會」的「社會定律」,像物理世界的物理定律一樣,對社會的狀態和事件具有物理上的強制力──也就是內建三大定律的機器人確實能強制地在物理上阻止傷害人類的行為發生,並為人類謀求物質福利。這種物理上的強制力能產生一個乍看之下是規範與價值善的社會。在這個意義上,它們不是現今人類社會的法律。法律只有在人類社會和執行者願意執行它們的條件下才具有「社會強制力」,它們沒有「必然實現規範內容的物理強制力」。
道德機器人社會的物理強制力和實現力固然為人類帶來一個乍看之下是美好的、豐饒的物質世界,但是它是否是個真正善與美好的社會?它們所實現自由是否是真正的自由呢?
三
在一個真正善與美好的社會中,自由必定是一個核心的價值。沒有自由的社會就不可能有真正的善。在此先不仔細探討「自由」這個概念,我們姑且假定「自由」是「在能力所及的範圍之內,欲求能被滿足。」或者用更形式化一點的表達方式:「x是自由的,若且唯若,x在其能力所及的範圍之內,x的欲求都能被滿足。」其中「能力所及」自然包括「使用工具輔助之後產生的能力」。這個定義應該可以掌握到「自由」的部分內涵,如果一個人使用工具後的能力越大,他越能滿足他的欲求,他也就越有可能達到自由的狀態。這樣看來,索拉利和奧羅拉這兩個道德機器人社會,透過萬能機器人的幫助,似乎都實現了一個相當自由的社會?不過,艾西莫夫並不是像柏拉圖一樣想透過小說來構思一個「理想國」(我們當然可以把柏拉圖的《理想國》讀為「哲(科)幻」小說),情節已經明白地告訴我們:這兩個社會都有很嚴重的缺陷──它們其實連上述「自由」的直覺定義都無法符合。
欲求或欲望(wish)是人類心智最基本的狀態,具有意向性,總是指向某對象,欲求也是人類行為的基本驅力。欲求指向的對象可以有無數個,但我們可以做一個基本的分類:物質欲求、性欲求、人身安全欲求、權力欲求、價值理念欲求、知識欲求、社交(分享)欲求、不受拘束的欲求。藉助道德機器人之助,索拉利社會極大化了人類的物質欲求、人身安全欲求、知識欲求、權力欲求(對機器人有絕對權力)在空間上不受拘束的欲求,這卻是以犧牲性欲求、社交欲求和價值理想欲求換來的,事實上,它也無法實現完全不受拘束的欲求,索拉利的社會為了維持自己形成一個強大的文化、習俗與思想的拘束(即「保守的傳統」)。奧羅拉社會不像索拉利那麼極端,它在保存社交欲求的條件下,極大化了人類的物質、人身安全、知識、對機器人的絕對權力、和性欲求,但是奧羅拉社會仍然有所損失:它失去人類與下一代的社交欲求(即「親情」),奧羅拉人為了保有自己的其它自由,不想受到養兒育女的拘束。結果,奧羅拉成為安逸的社會,失去開拓進取的精神,也不再看重價值理想的追求,而把精力花在權力鬥爭上(滿足權力欲求)。事實上,這是激化人的權力欲望。
權力欲求(或尼采所說的「權力意志」)是支配他人或他物(他者)的欲望或意志。如果人類的權力欲求指向其他人,那麼他想滿足權力欲求的自由,就勢必侵犯他人的自由。因此,如何安置社會中每個人的權力欲求,就是任何自由社會都必須面對的課題。我們也許會想:權力欲求可能是來自於對物質匱乏、性和人身維護的不安全感,如果消除這些匱乏,人們的權力欲求是否有可能被消除?我不清楚在一個物質、性、人身安全的欲求都可以被充分滿足的社會中,權力欲求是否可以降到最低?可以確定的是,人類在滿足社交欲求、知識欲求和價值理念的過程中,會刺激對權力的欲求。權力欲求越大的人越不易滿足,他也就越無法實現自由。反過來說,沒有社交、知識和價值理想的欲求,就不會放大權力的欲求嗎?也不盡然。儘管索拉利和奧羅拉社會把人類的權力欲求對象轉到道德機器人身上,這兩個社會仍然面對內外的政治鬥爭,伴隨著價值理念的鬥爭──甚至父女之間也不例外。人類似乎並不只想不受拘束地支配一大群道德機器人,還想支配其他人。為什麼?一個可能的說明是:支配無法、也沒有抗拒的機器人不算是「真正的」權力運作,只有成功支配能抗拒的對象才是真正的權力支配。如何安置權力的欲求可能是人類社會的一個永恆的難題。
四
雖然我們生活在一個擁有機器人的現實社會中,但它並不是一個艾西莫夫式的道德機器人的社會。我們的機器人只是一台程式機器,程式怎麼寫,它就怎麼運作。最重要的是,我們還不淸楚是否「意識」具有程式?(根據一些相信自然世界最終極的真實是位元的科學家,如果意識是自然的產物,那麼意識有其程式。(科幻電影《成人世界》(Chappie)表達了這種立場。勿被中譯片名誤導。)即使意識可以被寫成程式,或者意識可以被程式化,我們也不知道「道德法則」是否可以被寫入程式中。即使道德法則可以被寫入程式中,我們也不知道製造機器人的廠商和寫程式的科學家是否願意把道德法則寫入他們生產的機器人之中?我們也不知道道德法則在具有自我意識的機器心智是否可以對機器人的行為產生強制性?如果內建道德法則、且具自我意識(因此也具自我利害關係的判斷)的機器人和人類沒有兩樣,那麼就無法保證這種機器人不會傷害人類──就像我們無法保證「道德聖人」一定不會傷害他人。
我認為現在可以合理推測的是:即使未來人類有能力製造出具有意識的機器人,人類也不應該製造出它們。進一步,法律應該禁止製造具有意識的機器人。若不如此,那會使人類面對不可預料的極大風險──《魔鬼終結者》和《駭客任務》的權力機器人社會比較可能成真,而不是艾西莫夫的道德機器人社會。
道德機器人社會終究只是一個虛構。那麼,現今的人類社會如何處理人類的欲求滿足的問題?這是一個很困難的問題,我在這裡當然不可能提出一個完整的答案。我們今天的民主制度至少提供了一個公平的程序來面對人類的權力與知識欲求:你可以基於同意、共識或投票的程序讓他人服從你的你的理念和價值,讓它們被寫入法律中;你可以不受拘束地去追求任何你想要知道的知識或觀念。我們的科技也擴大了人們的社交範圍和性欲求的可能性,然而各種無所不在與無形的歧視仍然構成社交與性欲求滿足的障礙。人類社會仍然透過理性思考、觀念傳播、民主程序而一點一滴地進步。在艾西莫夫的道德機器人社會中輕易解決的物質和人身安全欲求,反而是我們今天這個科技資本主義社會很難實現的面向,或者說它的現況相當地不平等:一部分人享有豐裕的物質生活和人身安全保障;另一部分人則貧困且受戰爭威脅、或者雖不貧困卻活在戰爭陰影下或者容易受到暴力侵害。最麻煩的問題是,在整個人類社會中,仍然有一大部分人並未生活在良好的民主制度下。另一個麻煩的問題是:科技的發展固然可以提升物質欲求的滿足度,卻也可能嚴重地危害人身安全,同時刺激異常的權力欲求:想過度甚至絕對地要求他人臣服。這一點讓所有的欲求都受到威脅。
要解決這種問題,我們必須審慎參考艾西莫夫虛構的道德機器人社會給我們的啟示:我們應該要為一個科技社會擬定「倫理公理」和「社會道德規範」。例如,我自己目前構思的科技社會的四條基本公理或規範是(當然,每條規範都可以再加以引伸和演繹):
第一規範:我們必須盡可能地確保科技物都在人類能控制的狀態之下。
第二規範:我們不應該製造傷害人類的科技物;而應該製造保護人類權利的科技物。
第三規範:我們應該製造可以循環回收利用的科技物。
第四規範:我們應該盡可能地降低科技物的可能風險。
然而,不像艾西莫夫的「機器人三大定律」具有物理上的強制力,不會被機器人違反。上述的科技社會的基本規範都會、而且很輕易地會被違反。它們頂多只是道德勸說──基於理念價值而來的規範。但是,目前我們大概就只能做到這樣。
具有這樣規範的科技社會,距離善與美好的世界仍很遙遠。
沒有留言:
張貼留言