屬靈的機器(spiritual machines)?

本文題為Are "spiritual machines" possible?(屬靈的機器是否可能?),作者Michael de Rachewiltz為義大利Advanced Studies of Eurac Research研究員。本文收錄於《Religion in the Age of Digitalization: From New Media to Spiritual Machines》(數位時代的宗教:從新媒體到屬靈機器)一書(由Giulia Isetti、Elisa Innerhofer、Harald Pechlaner與Michael de Rachewiltz共同主編),2022年由Routledge出版社出版。作者從心靈哲學(philosophy of mind)、科技哲學(philosophy of technology)等領域切入,對人工智能發展的科技和社會影響,提出他的觀察:AI數位時代,科技與宗教交會時產生什麼哲學問題?尤其是意識、靈性與人工智能等關鍵議題。


本文探討「屬靈的機器」(spiritual machines)是否可能?如果可能,是否存在哲學與倫理問題?作者以Ray Kurzweil的預測為出發點,討論在2020年代後期,人類是否能創造出具有情感與靈性體驗的人工智能系統。Ray Kurzweil曾經預測2030年代,人類將可以將大腦內容上傳至非生物系統中。這個預測引發了一些問題,例如:機器能有屬靈的特質嗎?屬靈的機器是否可能存在?如果AI真的能夠產生意識,那麼,是否可能引發「人工智能奴役」等倫理爭議(即:人類開發出具有意識的AI,可能面臨「奴役AI」的倫理指控),作者在此借用的是美國哲學家Susan Schneider的看法,對此,電影「人造意識」(Ex machina, 2014)值得一看。

作者認為「屬靈\靈性」、「機器」這兩個名詞應該要檢視定義內容為何。關於機器,他指出,美國哲學家與認知科學家Daniel Dennett (1942-2024)認為心靈和意識是自然現象,在適當的化學和物理條件下會從物質中湧現,智人(homo sapiens)是一個有意識的機器人種族、地球上的生命是由碳基細胞構成,而一般意義上的機器人是矽基機器,我們是由微小的機器人(細胞)組成的更大的有意識機器人,智人是通過自然選擇而演化出來的機器人。關於屬靈,他指出,Rary Kurzweil試圖用自然主義的方式來理解和詮釋「超越」,認為超越並非超自然現象而是一種模式(pattern),認為「超越」(transcendence)其實早已存在於自然界中,如DNA在細胞分裂時的螺旋舞蹈、樹木在風中搖曳的姿態等。因此,作者認為關鍵問題是:與其說,「屬靈的機器是否可能?」不如說,要問的問題應該是「意識心靈是否可能獨立於其基質而存在?」(’Are spiritual machines possible?' would be by rephrasing it to: 'Are conscious minds possible independently of their underlying substrate'?)

作者分析了三種主要的心靈哲學立場:二元論(dualism)、同一論(identity theory)和功能論(functionalism),探討它們對於意識與物質關係的不同解釋。他認為功能論似乎最有可能支持屬靈機器的存在,因為它認為心理狀態是一種功能狀態,可以在不同物質基礎上實現,但問題是:功能論似乎無法解釋意識的質性面向(qualia),即我們感覺的主觀。作者用「倒置光譜」(inverted spectrum thought experiment)思想實驗來說明這個問題:即便功能完全相同,兩個人對顏色的主觀體驗可能完全不同,功能論有其侷限性,特別是在解釋意識的主觀質性面向的困難。

作者引用Susan Schneider的觀點,指出:第一、雖然AI科技快速發展,但這並不必然意味著人類能創造出具有靈性的機器。第二、即使人類能製造出超越人類智能的機器,這些機器也可能完全沒有內在意識體驗。第三、如果無法在非生物基質上創造意識,人類可能需要警覺於:自己可能將被某種「無意識的後生物存有」(unconscious post-biological being)取代的風險。第四、指出意識「可能」是AI對待人類態度的關鍵因素,即:人類之所以較重視黑猩猩的生命而不在意橘子,是因為我們能在黑猩猩身上認出意識體驗的親近性(affinity of consciousness),同樣的邏輯,如果未來的超AI具有意識,它「可能」會透過自身的主觀體驗(subjective experience)作為跳板,認出人類也具有意識體驗的能力,因此這種意識體驗的共通性「可能」會讓具有意識的AI重視人類的存在。

+++

我的看法:
一、上述論點暗示:發展具有意識的AI「可能」是保護人類未來的一個重要考量,因為共同的意識體驗「可能」成為AI尊重人類存在的基礎。這是個太過樂觀與天真的假設,因為人類的歷史證明,有意識的人類不斷在殘殺、掠奪、剝削、奴役、侵犯另外一個有意識的同類自己,以牟取或保護自己的私利、滿足自己的慾望,何來的保護與尊重?荀子早有「性惡」的見解,人唯有經過後天的師法與教化、禮儀引導,才能化性起偽,改惡向善。因此一旦有意識AI出現,人類最擔心的,恐怕應該是AI用人類彼此殘殺與掠奪、牟取或保護自己的利益的方式來對待人類。

二、有意識的生命體不一定會自動發展出倫理道德,動物可能具備基本的社會行為和合作,但這些行為不一定符合人類的倫理道德標準。人類的倫理道德往往受到宗教、哲學和社會規範的影響,這些共同塑造了人類社會的倫理道德。有意識的生命體也不一定具備靈性,就算人類具有自我意識與反思能力,也不是所有的人都相信靈性、靈界這回事,或對靈修有興趣,甚至更有人主張人其實「只是」與其他動物無異的生物之一而已,所有與靈有關的思想(靈性、靈魂、靈界等)都只是想像而已。又,意識是倫理道德、尊嚴與意義和價值、靈性的前提嗎?沒有意識的AI是否可以有符合人類社會倫理道德規範、發揮人性尊嚴價值與屬靈的「運算結果」?應該要有,否則現在很多人在忙著建立AI規範、使用AI輔助宗教實踐,就不知道在忙些什麼了。下一個問題是:雖然沒有意識的AI可以生成符合倫理道德規範的運算結果,但這些結果並不代表AI有真正的倫理理解或靈性體驗,AI基於演算法和數據資料推算,不基於內在的道德感和靈性探索,是以,AI在倫理道德和靈性問題上與人類存在本質上的區別。但話說回來,一個表現很屬靈、很虔誠,或道貌岸然、講話正義凛然的人,但其實未必內心真的屬靈與虔誠、真的很正直,這種人不是很多嗎?聖經《雅各伯書》也說:「沒有行為的信德是死的」。所以,沒有意識但具有符合倫理道德規範的運算結果的AI,和有意識、宣稱屬靈、自以為義、但卻無惡不作的人(例如:中世紀的Tomás de Torquemada、十九世紀的Grigori Rasputin、二十世紀的希特勒等人),相較起來,似乎前者對人類共同福祉來說,貢獻更大。

三、這篇文章的作者沒有提出明確的主張與看法,但仍有其價值,提出問題、整理與分析不同學者的觀點,也是很好的,至少算是一篇很好的文獻回顧與反思。這也反映出:跨領域研究的學者,面對著高度複雜而且充滿不確定性的議題時的困境,一個認真但資淺的學者常被迫採取較為安全的作法,在面對龐大的、由許多資深學者所主導的學界中,採取高度審慎小心的態度,讓自己的研究成果聚焦於分析,而非驟然提出什麼石破天驚的主張或論點。當然,在選擇提出某某資深學者的理論並相互比較時,作者其實多少隱藏了自己對該理論的看法。

四、哲學和神學的抽象思考,幫助我們預先思考AI發展可能帶來的深層影響,這種預見性的反思協助全體社會及早認識潛在的問題,為未來做好準備。當前的AI討論常聚焦於實務層面,如何應用、如何規範、如何防範風險等,這些固然重要,但抽象的哲學思辨和神學反思亦具有其價值,哲學思辨能幫助我們跳脫技術決定論的框架,反思AI發展的本質,質問:AI與數位科技真的代表進步嗎?是否真能提升人類境況?我們要追求什麼樣的未來?這種根本性的提問,有助於我們質問自己:人類文明的方向應走向何方。我們不應只關注如何規範AI、應用AI,更要追問「為什麼要發展AI」這類的根本問題;不應只討論「AI能做什麼」等功能性、技術性問題,更要探討「AI應該做什麼?不應該做什麼」等價值判斷的問題,神學思考提供了超越世俗的價值判準,重申人類的應有尊嚴,在AI發展可能威脅人類主體性的時代,神學視角提醒我們至少兩點,第一、科技發展不能取代對終極意義(或,對上帝)的追尋,第二、人類的選擇和決定,常導致自己無法承受的惡果。

簡單說,當AI數位科技的發展主要被大資本家和國家機器掌控時,以追求真理為目標之神學、哲學角度的批判思考,就更顯其重要性,因為人類的共同利益與福祉不應該完全受制於特定少數人的利益考量。

 

這個網誌中的熱門文章

關於「科學與宗教」,【The Codex Gigas】是個很好的案例

《馬可福音》中的「魚」和「漁夫」

人類與科技的共生,預示一個新的AI 軸心時代的到來