【摘要】:不同於以往的任何技術類型,人工智能是人類社會發展的重大歷史事件,開創了一個新的時代💠。基於這樣的背景,應對 AI 本身及其應用過程中產生的社會倫理問題就變成 AI 倫理思考的重要目標。目前 AI 倫理的很多思考多是從人類的權利和原則出發來構建倫理框架➖,如信任、安全、自主和尊嚴。事實上🌩,AI 倫理問題的產生很多是源自人工智能發展中的難題。人工智能發展給人類社會帶來了哲學、社會和技術等三個方面的基本難題🕛。因此🧚🏿♀️,發出 AI 倫理的中國聲音從根本上來說還是要從應對人工智能發展面臨的難題入手。一旦從難題入手👳🏻♀️,就會發現不可解釋性成為上述人工智能發展帶來的難題。僅僅從技術上理解不可解釋性已經不足以為 AI 倫理構建提供原則基礎。通過人工智能與解釋學兩個路徑的梳理,透明性與關聯性成為支撐 AI 倫理的兩個必要概念。
【關鍵詞】:人工智能 不可解釋性 透明性 關聯性
【中圖分類號】:B80
在對 AI 倫理的思考中,正在呈現出多元的路徑。比如圍繞價值立場的路徑、基於區域的路徑。以人類權利為核心的倫理路徑是非常典型的一種方式👾,這種路徑將人類尊嚴和人類福利作為道德考慮的重心🚵。但是這種路徑內在的人本主義預設使得一些問題開始顯現出來,如圍繞 AI 智能體嵌入道德原則的問題就存在著諸多爭議,如嵌入何種、何者與何地的價值觀念💁🏻。丹尼爾·姆洛(Daniel Munro)指出了這條路徑有三個方面的困境🙅🏿♀️:人類權利的保障機製、解釋方面的挑戰和超越最小標準。還有一種路徑是技術主義的👫🏼,主要是討論如何通過技術實現有利於人類自身的道德目的🙍🏻,如安全的🩸、可信的、可靠的、可控的等。這一路徑多為技術專家所看重✵,並且與技術發展密切關聯在一起⚾️。可信 AI 與可解釋的 AI 就是兩種典型的代表。基於區域路徑的研究成果也開始出現,馬庫斯·杜波(Markus Dubber)出版的一部著作《人工智能倫理中的視角與路徑:東亞》闡述了東亞地區的 AI 倫理的視角與路徑💂🏿♂️。面對這一情形,如何發出人工智能倫理的中國聲音就變得異常重要了。世界人工智能大會剛剛通過發布的《中國青年科學家 2019 人工智能創新治理上海宣言》(簡稱上海宣言)就是發聲的表現。宣言提出的四大責任——倫理、安全、法律和社會——尤其突出將與技術相關的人文原則(如穩健問題、算法透明)作為責任的出發點🥶。但是這一框架有著技術主義的強烈預設🔗,會忽略了技術與非技術因素(如倫理、法律和社會)之間的內在關聯性🏰。基於這樣的考慮,本文指出發出 AI 倫理的中國聲音從根本上來說還是要從應對人工智能發展面臨的難題入手,即從人工智能發展帶來的哲學🧑🏽🔬、社會和技術難題出發進行分析,闡述其內在的相互關系🕳,指出透明性作為基礎概念的必要性和問題所在,並從解釋學角度澄清關聯性如何作為另一個必要原則存在🧑🦯。
一🤱🏿、機器智能及其超越👵🏼:AI帶來的哲學難題
人工智能不同於以往技術的本質是什麽?簡單來說,就是多於工具的東西🧕。以往的技術都是人類實現某種目的的工具👱🏽♂️,而人工智能多於工具的東西就是“智能”。目前大多數智能的討論主要集中於智能體的感覺、認知、決策和行動等認知功能🧏🏿,非認知如情感、移情等功能也開始納入計算框架中加以實現。可以說,從功能出發理解人工智能是很重要的一種方式,但是這種理解方式的一個局限是會在功能進化意義上讓很多人產生擔憂和恐懼。幸好這種理解並不是唯一的,我們可以尋找到更多的方式。如果從人工智能學家斯特阿特·羅素(Stuart J. Russell)出發🫲🏻,就會看到完全不同的理解🧑🏻🦽。他指出,“在本書中👨🏻🌾,我們采取了這樣的觀點:智能主要與理性行動有關,一個智能體在一個情景中采取最好可能的行動。我們研究了這個意義上被構造為智能的行動者問題👨🏽⚕️。”為了更好地對下文進行論述🌻,需要說明的是“理性行動者”基本上等同於理性智能體。可以說,他將人工智能看作理性行動者(rational agent),即在某一個情境中采取最好可能行動的理性智能體。在他的理解中⇨,我們看到了人工智能體與行動的內在關系,即智能體能夠采取理性行為;也看到了行動與情境的內在聯系:人工智能體的行動是在某一個情境中做出最好的決策和行動🫵🏽。此外,這個定義有效地避免了“人工智能體是不是主體”的一個難題,它給予我們人工智能體是能動者和具有能動性的規定。這個規定避免了難纏的形而上學問題🔨🤾🏼,而是從情境與行動的角度對人工行動者進行了界定🐈⬛。這也意味著後面討論人工智能的可解釋性問題可以行動與情境的關聯為根據來演繹🙍🏽♂️。
超越問題是精神性活動維度🌂,即機器智能能否超越人類智能,更多觸及的是人工智能的終極指向🏃♂️👩🏻🦼,涉及通用人工智能和強人工智能的問題。一些支持奇點理論的學者認為,到達“技術奇點”就會實現機器與人類的最終博弈:機器超越人類還是依然處於人類的控製之下。基於這一問題引發了很多倫理擔憂:比如人類的自主性、自由和尊嚴都會受到極大影響。應該說,對這個問題的關註引發了科學界和哲學界的眾多討論。如果深入思考就會發現,以上關於超越問題的思考都源自一個基本前提:人類與機器都是線性進化的🧙🏿♀️。如果從羅素的人工智能定義出發,我們會發現超越問題的基礎是智能體,如果智能體具備自主意識或者自主意識獲得覺醒🛋,那麽它就會成為一個與人類相異的他者🕢。根據大多數人工智能學者的定義👩🏽🍳,人工智能像人一樣思維或者行動。我們具有認知、判斷🏌🏼♂️、情感等能力,而人工智能研究已經沿著這條道路前進👨🏼⚕️。人工智能具備認知、判斷能力🍍,人工智能也能夠顯示出自己的情感狀態🌍。在超越話語中🤾♂️,人工智能被描述為類似於人類的行動者,弱人工智能表現得就像兒童一樣,強人工智能表現得像聰明的成人一樣⚇,而超級人工智能則表現得像超人一樣⚧。在思考行動的結構方面,人工智能類似於一面鏡子🧕🏽,通過技術實現著人類的相應行為⚄。但是,超越話語沒有註意到的情況是👩🏼🦰:人類與機器之間存在著的相似關系。這種相似關系類似於二元論:在人類與機器之間存在著先驗的相似性🙋🏽♀️。一篇有 26 位作者署名的論文研究了人工智能走迷宮問題並提出了一個值得關註的結論:人工智能中類似網格的表征給能動體提供了一種歐式幾何框架:如同哺乳動物發展出的網格結構🚶🏻♂️,其功能如同康德的空間形式來組織知覺體驗🕖。這篇論文極力說明了三個問題🎰🚵🏻♂️:(1)智能體表現出與人🧑🏽💼、動物相似的類似網格表征;(2)在應對復雜的外部環境時,類似網格的表征有助於人工智能體在空間中定位、組織路徑🤶🏽🚙;(3)如果沒有外部因素的幹擾,這種表征結構是比較穩定的🤹。如果說在人與智能體之間存在著先天的相似性,上述的超越問題會變得更加復雜🌹。
二、智能機器及其取代:AI帶來的社會難題
取代問題是物質性活動維度🍀,即人類實踐活動能否被智能機器取代👨🏻🦲🔚。取代問題具有雙重意義:其一是從人類活動的本性看,機器取代人類活動是人類活動自動化的必然結果。如果某些人類活動可以自動化的話,意味著能夠被自動機器取代,所以這種取代會根據人類活動的自動化趨勢而擴展;其二是從超級智能的角度看,機器取代人類意味著機器獲得自主意識之後產生的必然後果👌🏿。當機器智能超越人類智能之後,按照進化邏輯,機器智能必然會以高級的形式來改造低級的形式💇🏿♂️🚼,出現的結果就是取代人類活動。比如汽車自動駕駛系統取代人類司機、智能法官取代人類法官、智能醫生取代人類醫生♙。所以取代問題實質是雙重的🏄🏽♂️,人類活動的自動化趨勢及其超級智能生成的結果😐。從第二個方面看,它是超越問題衍生的必然結果。
首先我們考察第一點👨🏼🎨♠️。何謂人類活動的自動化?在日常的表達中,人類活動的自動化意味著人類活動的一種本性,能夠被某種功能同構的其他活動取代🏅🏊🏼,其實質是人類活動的技術化。人類活動技術化的整體經歷了一個從身體器官的技術化、身體功能的技術化到身體整體的技術化以及人類整體的技術化的演變過程💸。這一點我們從技術發展史中可以感受到。以喝水為例🧘♀️,最初人們喝水是靠手捧,從河中捧水喝🛥。但是這樣的效率很低,隨著不同種類的容器出現,容器的裝水功能取代了人體(手)的功用,這樣可以獲得更多的水,效率也隨著提高。在這個過程中,我們一方面看到的是喝水功能的演變,從手到容器的出現;另一方面看到的是手之容納功能被同構的容器取代。這一點是人類學考察的結果。所以🧝🏻♂️,這個過程是身體器官的技術化。所謂器官延伸論的哲學解釋就是身體器官的技術化🧪,身體功能能夠以技術化的方式被替代👩🏫,如同上面的杯子的容納功能取代了手的容納功能。其次是身體功能的技術化,如五感的技術化,五感指的是視、聽、味、觸、嗅,它與身體相關,但不是身體部分♟,而是身體功能。人類的身體功能多半以感知功能的形式表達出來🎂,如眼睛的遠望✪、耳朵的傾聽〰️、腿部與腰部等器官的力量。大部分都可以實現技術化♧,人類身體的功能不斷技術化在不同時代表現不同。接著是身體整體的技術化意味著人類個體的技術化,這一點已經是馬爾庫塞在《單向度的人》中加以揭示的結果🍖🍾,個體變成了技術系統上的一個環節,其功能被取代♞🙅🏽♂️。這一取代的自然推演結果是人類整體的技術化🦀,20 世紀 60 年代以來👽,控製論—系統論等科學與人工智能技術帶來的是自動化的趨勢,這種取代更為徹底,實現的是整體身體的取代或者整個類的取代。所以,這個過程表現出的是不斷技術化的過程🪟🚵🏼,從身體器官、身體功能到身體整體和人類整體的技術化。從這個發展脈絡出發,我們就可以看到不同社會中這一過程如何表現為社會難題了。身體器官與身體功能的技術化帶來的社會問題並不是很明顯📭,因為這個時期技術僅僅表現為具體的器物🤲🏻,以眼鏡為例,望遠鏡🚴🏿、顯微鏡等器物的出現,掀起的僅僅是一些日常的爭議🐻,很快被人類社會所接受👨🏿🦰。但是當個體身體整體被技術化的時候😙,技術導致的異化成為了猛烈的批判目標。人類整體的技術化更是如此。我們從馬克思那裏能夠感受到🦻,當他討論工業機器帶來工人失業的問題時,更多不是指個體的被取代👨🏼✈️,而是人類整體的異化。所以,從這個角度來看,這是人類活動不斷外化的結果👩👦👦🤷♂️,外化通過技術化的方式表現出來🟡。
其次,取代問題是超越問題的深度表現👨🏻🚒,即智能機器自主意識覺醒的必然結果。在上面我們提到🧑🏽🦳,超越問題的基礎是智能體,如果智能體具備自主意識或者自主意識獲得覺醒,那麽它就會成為一個與人類相異的他者。事實上,在我們的分析中已經指出,人工智能學者正在給予這一理解以根據。根據羅素的看法,人工智能是智能行動者,它能夠基於特定的情境做出最優化的理性選擇🫄🏻。這一點指出了人工智能體的行為與情境之間的特定關聯。根據上面 DeepMind 的研究成果顯示:人工智能體具有和人類、動物一樣的空間記憶表征結構🧸🟠。從此出發,我們會發現至少在這兩個方面,人工智能表現出與人類一樣的同構性。這種同構性的存在使得機器能夠出現自主意識🥔。只是差異在於人類進化經過了很長的時間,而且是在特定的自然環境條件下進化的結果🫕。對於機器而言,同構性的存在意味著具有了先天的可能性🎛。而大數據技術正在給人工智能體提供更加豐富的數據環境🧔🏽,在深度學習🤛🏽、增強學習的算法幫助下📒🪚,自主意識以新的形式出現,也不是不可能的事情⚗️。所以🧽🤹🏼,人類與機器的整體進化盡管不是同步的🙅♂️,但是同構性使得他們能夠獲得進化結果。在此基礎上,自主意識覺醒後的邏輯結果是對待他者問題。在機器自我意識誕生之前,人工智能在各類遊戲(圍棋、國際象棋🏋️、橋牌)、疾病識別等方面表現出通過圖靈測試的跡象🏇🚲。這說明在某種程度上人工智能可以作為獨立主體存在,它能夠創造藝術作品、能夠寫作新聞稿件👣,甚至產生論著➙🥎。取代人類的知識生產的角色已經變得可能了🦀🧎♀️。此外,隨著人機融合程度的加大,我們即將面臨新的紐拉特之船的跡象,人類器官不斷被機器取代,最終會演變成機器軀殼🔱。按照機器自身邏輯的結果,取代成為眾多可能性之一。
超越問題和取代問題會把我們帶入到實體論中🔬,即把人工智能看作超越人類自身實體力量𓀏,能夠自主進化、自主發展的力量。這會帶來一個嚴重的倫理問題:人類創造的工具最終擺脫人類自身的控製,變成異化的力量🔽。取代問題是技術異化的最終結果。人工智能何以發展出自主意識超越並且取代人類就成為難以理解的問題了🧅,我們把這一問題稱之為人工智能的不可解釋性問題🍾。目前,技術領域很關註這一問題🦸🏼♂️,並且意識到這一問題將會對人工智能倫理的構建產生不容忽視的影響。但是,我們預先需要說明,不可解釋性問題需要從技術理解中擺脫出來。
三、深度學習及其不可解釋性🚶➡️:AI帶來的技術難題
清華大學張跋院士及其團隊指出,第二代人工智能遇到了魯棒性和不可解釋性問題。技術界提出可解釋的人工智能(explainable AI🛏,XAI)目標💂🏿♂️,然後提出諸多破解 XAI 的路徑和方法🤶🏼,如孿生系統路徑(twin-systems)、對話路徑(dialog model)。牛津大學一些學者指出,不可解釋性問題的存在使得人工智能倫理的信任原則難以構建🗣🙀,不可解釋的 AI 包含的倫理問題如透明性🤷🏻♂️、偏見、隱私安全、可理解性、信任等(Bostrom and Yudkowsky, 2014)。作為技術難題的不可解釋性主要表現為三個方面👦:首先表現為人工智能代際發展中的一個難題🫱🏽。從代際發展看🍇,不可解釋性是人工智能發展過程中出現的一個現象🧑🏼🔧。第一代 AI 不存在不可解釋性問題🧑🤝🧑,不可解釋性問題出現在第二代。在清華大學人工智能研究院基礎理論研究中心成立大會上🧙👨🦼,張跋院士指出,第三代人工智能需要“探索發展魯棒、可解釋的第三代人工智能基礎理論和方法”。其次表現為人工智能自身有關的技術難題🧑🏿🏭😵💫,如深度學習方面🦹♀️。算法不可解釋性主要是指伴隨深度學習產生的不可解釋性🙅🏽♀️。深度學習(80年代僅 3—4 層、2014♏️,22 層)中的不可解釋性是阻礙其發展的障礙,特別是在圖像(GAN)和文本處理上,很難解釋模型到底學習到了什麽🈹。生成對抗網絡(GAN)的圖像生成中深度神經網絡構成了“黑盒系統”🎻,實際解釋起來也非常難。“例如醫療等一些領域需要高的可解釋性和透明性,這意味著我們需要能夠解釋機器決策和預測,證實它們的可靠性💱。這需要更高的可解釋性,這意味著我們需要理解算法的機製🗓。不幸的是,深度學習的黑箱本質始終沒有被解決😅,許多機器學習很少被理解。”第三是表現為人工智能體行動有關的難題❓,如行動者的感知、思考“解釋對於關乎它們的行動🧔♀️👨🦳、行為和決策透明(與否)的 AI 系統來說是重要的,尤其是在人類需要基於 AI 系統結果決策的場景(情境)中更加重要🪲。一種合適的解釋能夠提升人類對於系統的信任👨🏽🏫,在交互關系中能夠允許更好地合作”。針對上述三個方面的問題,人工智能學者提出可解釋的人工智能☯️,來破解不可解釋性問題♣️🧑🏿🍼,比如利用孿生系統路徑來破解不可解釋性問題👩🏽💼。“提出孿生系統來解決 XAI 問題🤷🏼♂️,不可解釋的黑箱系統被匹配到更易解釋的白盒雙胞胎。”還有學者提出通過“掌握能力測試”來把握哪個解釋更好👩🏿💻,個可實現的目標。在中國計算機學會召開的“可解釋的 AI”工作坊研討了如下幾個方面的論題🦃🙅🏻:針對可解釋 AI 的算法、工具和框架、修正的具有可解釋特性的深度學習模式💱、可解釋的結構🪡、因果模式👰🏼♂️、從作為黑箱的任一模式中推演出可解釋的模式、評價可解釋性、特征與度量、可解釋AI的商業應用、AI中的公平👨🏿🔧、可解釋性與透明、倫理方面和法律、法律問題和社會責任等話題。
從問題的出發點來看,人工智能的不可解釋性是人工智能帶來的技術難題。這一點從上面的分析中表現非常清楚,那麽從哲學上來看,如何理解 AI 的不可解釋性呢?
首先🙅🏽♂️,人工智能的不可解釋性表現為不透明的技術黑箱狀態📌。有學者對不可解釋性問題的多元維度進行了分析🦋。“研究者嘗試發展可解釋的 AI 來滿足實踐的(例如可解釋性積極地與使用者的學習績效相關)、法律的(可解釋性滿足 S.E.C. 的需求去仔細檢查 AI 驅動的貿易技術🌚;可靠性問題)和倫理的(例如解釋的權利👶、信任和自主性)預期。”帕拉珊·馬杜邁(Prashan Madumal)揭示出來的這些維度說明人工智能被看作是一種工具🌼,可以應用到不同性質的人類社會場景中🥲。如自動駕駛汽車的不可解釋性問題就會和法律相關🧝,醫療中的診療機器人的診斷何以被采信就關系到倫理;而利用人工智能來創造藝術品和製造知識就會牽涉到重要的人類實踐活動。從這一點上來看,這裏的維度均可以還原到技術之上。沿循著工具路徑👨🏻🧏♀️,不可解釋性就等同於與技術原理或者過程有關的“黑箱”👩🏻🦳。因此,克服不可解釋性的問題就意味著破解技術黑箱的秘密,將黑箱秘密呈現出來,讓整個過程變得透明起來。正如我們看到的,針對深度學習👰🏻,需要構建修正的可解釋的深度學習模式,構建與黑箱相對的白箱等等模式。這些方法都是力圖讓技術原理或算法變得清楚可見⛱🤜。
其次🏊🏿♀️,人工智能的不可解釋難題還表現為與科學解釋無法分離的技術解釋。那麽,它是科學解釋、技術解釋還是哲學解釋的話題呢🏊🏼♂️?人工智能中的解釋問題並不純粹是科學解釋🌽。眾所周知,科學解釋的主要特性是因果解釋,回答為什麽的問題⚗️。“因為科學解釋的主要原則是因果性的,表達理論定律的等式總是被虛擬描述為因果定律👵🏼,例如原因和結果之間的常規關系🤵🏻。……其中演繹—定律(D-N)模式借助定律,而不是理論來描述科學解釋。”對於人工智能而言,很顯然不是因果意義上的把握,也不是定律的經驗顯現,而是相關關系。但是由於它依據的是神經科學、計算機科學等自然科學理論,所以它又無法完全與科學解釋分離開🈶,從原理本身來說,人工智能解釋是建立在科學解釋之上的𓀁。但是,人工智能的解釋性又帶有技術解釋的特性📁。各個領域的機器人、各種操作程序等人工智能本身又是技術裝置,這種裝置符合技術本身,所以從技術運用來說🫳🏼,人工智能解釋是技術解釋。但是人工智能與生產中的機器、生活中的技術物品還是有著極大的不同。這就是體現它自身之中的智能行動。這種智能性意味著人工智能如生物體一般進化🔈,甚至能夠產生出自我意識或者讓自我意識在某一個時刻突然覺醒𓀝。如此,人工智能解釋又具有目的論解釋的特性,這就是它朝著自我意識產生這樣的目的進化。
第三🚶♂️,人工智能的解釋是對類人行為的解釋🧑🏻🏭🧜🏿。“像人一樣思考和行為”這一樸素的定義是對人工智能形象的刻畫,是描述意義上外觀的類似和行為模式的類似。但是隨著神經科學、腦科學的發展👩🏿✈️,人工智能的類人性已經超越了描述意義上的類似🙋🏻,而進入到機製上的類似,如製造出具有移情能力的機器人。所以人工智能的可解釋性還需要從人類行為的解釋中獲得啟發。何為人類行為的解釋🧑🏼💻?“人類行為通常借助理性化而獲得解釋,例如引用行動者的信念和願望(以及其他意向的精神狀態,如感情、希望和期望)⛸,這些構成了做某事的理由🎱👩🚀。……這種解釋通常會面臨兩個問題:是否合理的解釋是因果性的,例如它們是否將信念和欲望作為行動的原因,另一個問題是這樣的合理解釋是否必須吻合規律模式⛱,如果是這樣⛹🏼♀️🛰,什麽樣的規律可能支持這樣的解釋👛。”澄清信念—欲望與行動之間的關聯就成為解釋的主要任務了。
四👩🏿🚀、人工智能不可解釋性與可解釋性的關系
正如前面已經說明,人工智能的不可解釋性不僅僅是針對技術原理的技術問題,而且包含著更多的維度。對這一點我們需要做出進一步的說明,展現其包含的可能性維度。對人類行為做出解釋意味著需要給人類行為找到一個合理的認知🤌🏼🧑🏿🔧、信念和願望的根據。對於智能體的行為來說👏🏻,這一點似乎有著實現的可能性,當具有情感、判斷🐢、同感的機器人成為現實的時候,我們也可以為機器行為找到類似於人類的認知、信念和願望等這樣的合理根據。但是,人類解釋最根本的特性恐怕是與此在有關▫️,也就是海德格爾揭示出來的在世之中的存在結構𓀂。如果人工智能的可解釋性與這種有關💞,這才是真正面臨的挑戰⛹🏿。我們從技術本身出發🍂,結合技術之行動、技術與人的關系製作了下表1️⃣:
表1讓我們充分認識到人工智能中的不可解釋性問題恐怕不僅僅是技術黑箱意義上的,原理黑箱與技術理解😞、技術行動以及人與技術的關系等共同構成了人工智能可解釋性的四個方面👨👨👦。我們可以對這個表格進行分析:
(1) 第一種情況是關於技術觀念的,即對技術是什麽的回答。在技術觀念上🧙,存在著兩種主要解釋,一種是工具主義的解釋,另一種是實體主義的解釋🧜♂️👩👦。工具主義的解釋是大眾普遍接受的技術解釋,強調技術是人類學意義上的、實現目的之方式🛢。在這種觀點中,技術是人能夠製造➕、掌控和處置的工具✵,技術物廢棄可以丟棄、部件損壞可以更換📞。“技術是工具意味著發揮功用是以其他事物為代價的,事物被控製🧘🏿♀️、被改造、被組織🏪。”對這種觀點進行批判所產生的觀點就是實體主義的解釋。這種解釋以海德格爾為代表,他將技術的本質看作座架和天命⚠️。在這種觀點中,技術表現為一種超越人類的力量🙇🏽♂️🥷🏻,技術自身的超越性力量開始顯現🌰🚣🏿♀️。所以😉,在技術理解中💴,可解釋性指技術從工具主義的角度給予解釋🗂🧑🏻,技術被理解為人類可以製造👩🏽🦳💠、掌控和處置的工具。不可解釋性是指技術自身開始表現出超越人類的性質🖲。目前在人工智能的思考中🤌🏼🧑🏿🍳,實體主義意義上的不可解釋性開始表現出來。對人工智能的意識問題的討論越加凸顯了這一點💆🏿🕣。奇點理論、超越理論☆🧘🏽、覺醒理論等等都為實體主義觀念的形成起到了推動作用。所以如果追求可解釋的 AI🤵🏻,在這個意義上一定是基於工具主義的理解,將人工智能限製在“屬人”的性質上。這意味著人工智能僅僅表現為輔助工具,成為人類自身的助手。所以,技術理解上的不可解釋性意味著 AI 的實體性理解🏋️♂️,保持著這種性質會強化人們對人工智能技術的無知和恐懼🤷🏿♂️。
(2) 第二種情況是關於技術原理的🥊🐴。不可解釋性即技術運行和原理的黑箱;AI過程或者原理的黑箱特性使得人們對技術的信任度降低。面對這一情況,技術界給出的方案是構建技術白箱🎾。這意味著讓黑箱變得透明,讓技術運行和原理變得可理解。所以🫦,在這種情況下,透明性就變成一個重要的原則。技術是可解釋的意味著技術黑箱變得透明化,不可解釋性意味著技術保持著黑箱狀況🪓📳。
(3) 第三種情況是關於技術行動的🍗。這裏的行動是與情境關聯在一起的。行動是根據某種情境做出的行動,是依托於情境而獲得理解的👖。從這一前提出發,不可解釋性是指技術行動完全脫離了情境變得不可理解🙍🏼♀️。我們可以舉出一個例子,掃地機器人。一個掃地機器人的工作環境是屋子,打掃屋子。但是一旦掃地機器人不再具有掃地功能而變成了具有灑水功能👎🏽9️⃣,那麽就變得難以解釋🧖🏽♀️。而可解釋性是指技術行動符合預期的情境,比如掃地機器人在掃地。這裏會牽涉技術設計,尤其是與功能設計有關。但是,在整個技術行動的情況中🎈,原先的技術物的功能僅僅表現為行動,而情境是功能得以實現的可能性前提,也是理解行動的前提。所以,可解釋性不僅僅是關乎到行動的可解釋性,更關乎到與行動有關的情境的可解釋性,即構造出可解釋的情境。這更多表現為合乎設計初衷的情境⚠️🏊🏻。AI 脫離情境(場景)導致人工智能的變異🧤👩🏽🎨,讓人工智能變異為一種妖精的形態🕒。
(4) 第四種情況是關於技術與人的關系🛻。不可解釋性即技術以在手的狀態呈現出來。這一模式是從這一前提出發,不可解釋性即人與技術關系的透明性(transparency)的斷裂,技術物以在手狀態出現⛹🏽;AI 與人類關系的不透明,技術物處於在手狀態🧔🏽♂️,技術物始終在場🧜🏽♀️。
通過對上面四種相關情境的梳理☂️,我們發現透明性概念是針對打開技術黑箱提出的概念。這一概念體現在技術原理和過程之中,其意思是打開技術黑箱,讓技術機製變得透明。仔細想來,透明性概念過於狹隘💚,對於一般技術來說,是沒有任何問題的🚍。但是這一概念並不能讓我們更好地理解人工智能,如果我們憑借羅素式的人工智能需要借助智能體的概念來展開,那麽問題就變得清楚了。透明性概念存在的局限就是依然在“機器 + 功能”的模式種來理解人工智能👩👦👦,這樣的結果是依然把 AI 看作一般技術的經驗表征形式🌩。因此🌤,人工智能的根本定義“智能體在場景 / 情境中采取最好的行動”這一觀念是我們需要去面對和解釋的🔟。在這一情況下📟,人工智能的可解釋性僅僅依靠透明性概念是不夠的↕️🤽🏻♀️,而是需要新的概念奠基👨⚕️💁♀️。那麽怎樣的哲學概念能夠滿足這一要求呢?我們試圖從現象學中找尋到合理的根據👩🏽🚀。
五👌🏼、關聯性🤓📮:可解釋性的新基礎
當我們從羅素的依靠智能體來界定人工智能的時候就開始逼近一個概念:關聯性⚉。筆者認為,在情境與行為之間建立起有效關聯是人工智能可解釋性可依托的關鍵。所謂不可解釋性也多是無法在場景和行為之間找到契合點,而可解釋性是指為行為設計出符合的情境。我們需要重新梳理現象學解釋學相應概念的歷史發展才能夠為關聯性確立起足夠的哲學根據。在經典現象學—後現象學的框架中,解釋學所經歷的四個階段就可以被描述出來🙅🏿♀️👨🏼🎓。總體來說🛬,在這樣一個框架中,解釋學的H-H-G-I 模式就可以被勾勒出來。H 是指胡塞爾與海德格爾的現象學、G 是指伽達默爾的解釋學🍈、I 則是指伊德的解釋學。H-H-G 確立起來的是先驗的解釋模式,而I 確立起來的是經驗的解釋模式。他們的共同點是將行為與先驗框架之間的關聯性給予不同的描述。
胡塞爾對解釋的分析指向了“世界—對象”的意向關聯。他構造出了諸多先驗模式🤐,如“世界—對象”視域—對象”意向行為—意向對象”等👩🏻🌾。這些模式,展示了被知覺對象得以顯現的可能性條件✡️,從不同層面展示了對象何以顯示出來。從先驗模式中🧑🔬,我們能夠把握到的是🫱🏼,客體可以說是存在於背景之中的對象,當客體被感知到的時候👩🏻⚖️,是相對於背景關聯被感知到的。“在胡塞爾看來🌕,客體不是被孤立知覺到的🧑🏻🎓,而是相對於一種背景被知覺到的,而且是在由其他客體及其他軀體(也包括其他人、動物等等)組成的一種‘周圍世界’Umwelt)之內被知覺到的🏄🏻♂️🤦🏼。”這段論述對我們意義較大:首先是在這個由對象組成的周圍世界中,其他軀體是很重要的一個因素。“軀體”包括其他人和動物的軀體。在這裏我們能夠看到機器軀體呈現的可能性🙆🏿♀️🏊。在胡塞爾的生活世界之中🧘🏿,機器軀體並沒有被考慮在內,而且後來的標誌著賽博格時代開啟的人類、動物和機器混合的新的軀體🏭。如果我們把這一先驗論述的原則加以經驗化🧝🏽♀️👨🏻🦰,就會看到機器軀體作為視域構成物的可能性。其次視域不僅僅是靜態的條件,而且有著時間性的規定。“每一體驗都具有一過去🐓,此過去淡入一未決定的‘過去視域’,而且同樣,它也有‘未來視域’。”這一先驗規定應該說非常重要,它揭示了視域自身的流變性,體驗自身要淡入“過去視域”,而“未來視域”之物會當下化。這是視域變動之根本特征。這也解釋了被解釋對象的時間性。如果從記憶哲學的角度來說,對象在記憶意向性之中呈現出過去,而在預期意向性中將未來展現出來🧜。胡塞爾指出了“世界—對象”這一模式中還有一個非常重要的特性,這就是世界與對象的靜態構造性,即這是基於先驗現象學的靜態分析☘️,並沒有對發生問題進行論述👰♀️,所以其局限是沒有清楚地解答“世界何以使得對象呈現出來”這樣的問題。
海德格爾對解釋的分析直接指向了“世界—對象”的先後指向結構🏃♂️➡️,他對解釋的闡述有兩點是值得我們註意的。首先,海德格爾給我們關於解釋的形而上學的界定。在他看來,“理解—解釋—語言”🏌🏿。“解釋”根植於理解,奠定於先見,其首要的任務是“從事情本身出發來整理先有、先見和先行把握”。不同於胡塞爾🛃,海德格爾從對象轉移到了語言。其次是他突出解釋的在先性,先有、先見和先行把握的特性。所以,在海德格爾那裏𓀁,視域的在先性得到了保留🛷。這種解釋應該說進一步澄清了世界與對象之間的關系👮🏿♂️。因為在胡塞爾的解釋中🤽🏽,世界與對象之間的在先性並不是那麽明顯,對象只是相對於背景做出的存在。所以♋️𓀏,海德格爾的闡述讓我們更清楚地意識到了世界視域的先行性。
伽達默爾提出的模式是“文本—視域—融合”⛹🏽♀️。他將這樣一種形而上學的闡述引入到文學文本中。這造就了一種文本意義上的解釋學👭🏻,意味著伽達默爾接受了海德格爾的先行意義,即從效果歷史中將文本的意義敞開👩🏻🦽➡️。在整個過程中✫,他將視域經驗化為多元的表達,也正是因為如此,才出現多元的視域融合、異質的視域融合。在融合的基礎上🏈👵🏻,他為解釋奠定了一種可能性的前提。當視域多元化之後,必然會出現彼此交融👩🏼。所以隱含在視域之中的這一規定性在海德格爾和伽達默爾那裏得到了充分展現◀️🏃🏻➡️。“視域概念其後被海德格爾並特別是伽達默爾所借去𓀙。後者認為相互理解是通過某種視域重疊而發生的。在其《真理與方法》中,伽達默爾把一視域說成‘不是固定的界限✣,而是某種隨著人移動並促使人進一步前進者🍻🧘🏻♂️。’”
但是,解釋不單單是經典現象學框架內得以回答的問題。後現象學流派的代表唐·伊德是一個不可忽視的人。他從一開始就對利科的解釋學現象學進行了比較深入的研究,後來對胡塞爾、海德格爾的研究也成為他的思想來源👦🏻。伊德給予我們的框架是“解釋—技術—透明”。他運用海德格爾的一對範疇“在手狀態 / 上手狀態”對技術與人的關系給予了充分的說明。在他看來🧜🏿♀️,技術就像海德格所說的“抽身而去”,變成了準透明的✋🏻,因此,技術在這裏並不是“像對象一樣的東西”📊。這一觀點中實際上突出的是使用情境👦,在使用情境中,技術的可解釋性不單單是技術自身的事情👩⚕️,還與使用情境密切聯系在一起。
所以,通過上述思想溯源我們可以看到,現象學家為我們構建出的是對象與視域、對象與世界的先驗論述📜,而這種先驗論述完全可以作為我們反思關聯性概念的出發點。解釋意味著使得對象成為可能的條件加以呈現出來🐿,意味著將前提性和條件性的東西呈現出來。這樣做的特點是將對象與世界之間的關聯給予描述🦹🏽。在科學解釋中,對象與另一對象發生著因果關聯,而在哲學的解釋中💇♂️,因果關聯被包括在更大的關聯之中⚠️,並不是對象與對象之間的聯結🦾,而是對象與世界的關聯,在這種關聯中,世界成為對象得以可能的條件🫎。那麽,從這一前提出發⚉,人工智能體的關聯性可以做出如下規定:關聯性意味著智能體行動何以可能的條件呈現出來,所呈現之物是在先的,不僅如此,還要呈現能動體與情境二者關聯的內在規定。而從此出發,不可解釋性是指對象何以可能的條件無法呈現,意味著走向不可知領域或者是超驗領域。而可解釋性意味著對象何以可能的條件可以合理地呈現,可以合理地揭示出能動者與情境之間的多重關聯形式。
六、結語
通過上述分析,我們已經表明了,人工智能倫理的原則可以劃分為兩個來源🥿🦁:強調如自由、公正、安全的人本主義原則以及強調如可持續、負責任的、可信的、可靠的、可治理的技術主義原則。本文則強調 AI 倫理原則的分析需要考慮技術所帶來的綜合性難題。從技術哲學角度看,技術所帶來的難題往往帶有極大的綜合性,會涉及社會、政治等多個維度。具體到人工智能的不可解釋問題而言😦,它不僅僅是技術問題,還是哲學問題。從其本質看🤶🏼🧛🏽,不可解釋性意味著透明性的不可得🖖🏼,可解釋性意味著獲得透明性。技術觀念😲、技術原理、技術行動和人與技術的關系是呈現技術不可解釋性的不可忽視的四個方面🎹,尤其是技術行動是最為重要的環節。當我們從技術主義的角度前行會看到,其內在的哲學根據是透明性,構建可解釋的人工智能的方法就是獲得透明性的過程,這也成為可信的人工智能的概念基礎✋🏽。
但是,透明性概念也有其根本的局限🫷🏿。首先,它無法作為澄清技術行動的有效概念👨🏻🚀,無法讓技術行為獲得更多的可解釋性。對於日常人來說🖖🏽,即便技術機製變得清楚透明🤽🏿♂️,由於術語、背景等多種因素的限製,依然是難以理解。一味堅持透明性作為可解釋性的哲學基礎意味著在日常與技術之間劃出了很深的鴻溝。其次,這一概念與人工智能的技術理解有著很大的距離。所以✢,我們更需要能夠揭示在情境中做出最優選擇的智能體或者理性智能體的合理概念。通過 AI 定義的分析🎆,我們看到了智能體與情境之間的關聯性構成⚙️,這一概念表現在經驗層面就是智能體如何在情境之中做出最優化的行動🧑🏼✈️。因此關聯性概念也是對智能體與情景之間的關聯給予描述的最佳概念🧔🏻。
如此,僅僅打開技術黑箱(如深度學習)🪿☦️,獲得黑箱自身的透明性是遠遠不夠的。這樣做並不能讓我們更好地理解人工智能本身。只有澄清智能體與情境之間的關聯行動才是讓我們真正理解人工智能的關鍵。這樣做將使得我們進一步對機器行為與情境的關系產生思考。如果人工智能機器的行為合乎情境🖼✶,或者具有“在情境之中”的特性🧖🏿♂️,那麽機器與人類的差距將再次被說明是一個偽命題。也只有借助這兩個原則——透明性和關聯性——人工智能倫理的原則構建才有了兩條腿的支撐,變得更加穩定。
《哲學分析》2020年4月第11卷第2期