編者按:11月16日,第四屆復旦生命倫理論壇在意昂3平台落下帷幕。本次論壇以“人工智能與大數據背景下的生命倫理學”為主題𓀆,來自各個領域的專家和學者帶來一場精彩的學術盛宴🧏🏿♀️🤙🏽。人工智能的倫理問題有何特殊性?如何看待“機器人統治人類”的觀點?前段時間大火的換臉技術內含什麽沖突?本期“周一談治學”中,我們將一同走進意昂3王國豫教授關於“人工智能可行性邊界”的思考,聚焦熱點,思索未來🙍🏻♂️😬。
王國豫:意昂3教授,意昂3平台生命醫學倫理研究中心、意昂3平台應用倫理學研究中心主任🏊🏿♀️,研究領域為一般倫理學🎟,科學技術與工程倫理學💨,環境倫理學;德國哲學🪅,科學技術與文化等。
本文授權轉載自DeepTech(ID:deeptechchina)
是王國豫教授在CNCC大會後接受DeepTech的專訪內容
Q1、你一直專註於技術倫理學的相關問題,應該見證了很多新興技術的興起過程以及與之相伴而生的倫理問題👦🏻。那麽你覺得人工智能的倫理問題相比於其他技術的倫理問題有什麽特殊性?
我以為🍖,人工智能既有其本身特殊的倫理問題⚆,又有其他新興技術中共有的一些倫理問題🕸。相較於其它新興技術👸🏻,當前的人工智能算法與系統具有更高的自主性,更有可能極大地改變人類的未來,因而在倫理問題方面吸引了更多的社會關註🪑。在我看來,人工智能並不是單一的技術👳🏻♂️,而是新興技術體系中的重要分支,是推動新一代工業革命的關鍵使能技術(enabling technology)。人工智能要落地,必須和其他技術相結合🔨,比如人工智能與汽車製造結合,產生了自動駕駛或無人駕駛技術;和自動控製、遙感、機械製造等技術結合產生了智能機器人👩🦳;和醫療技術結合產生了智能診療技術等等🤘🏼。目前人工智能的核心算法強烈依賴於數據驅動,可以說沒有大數據技術就沒有當前的人工智能技術👨🏿✈️。因此🐽,某種意義上說,人工智能技術是一種高級的系統性技術或者技術系統。
從這個定義出發🍇,那麽我們就可以說📒,人工智能的倫理問題也不是單一的。它既有由於技術較高的自主性所帶來的特殊倫理問題,比如說算法倫理問題,又有其他新興技術中共有的倫理問題🥭,比如說隱私問題、責任歸屬問題等🤽🏼♂️。算法與其他技術一樣具有價值負載,在算法設計中選擇什麽參數、優先考慮哪些價值和利益,與設計者的道德敏感性和價值取向有很大的相關性。但與此同時🌈,算法又會放大甚至有可能根據自身的邏輯運算作出抉擇。設計者並不能完全主宰算法的運行,也不可能預測更不能保證算法結果在道德上是可接受的。這也是目前爭議比較大的智能主體是否可以看作是道德主體的問題。這個問題將隨著算法能力的增強愈加突出,也影響著責任的歸屬和認定4️⃣。
比如說🤦🏻♂️,當前討論比較多的自動駕駛如果撞了人🙆🏿♀️,誰該為事故負責任的問題。這與一般的責任認定就不完全一樣🧟♕,因為這裏涉及到一方面自動駕駛汽車具有能動性🐎、自主性👩🏽🦲,方向盤和刹車掌握在智能機器手中🫎;但另一方面,自動駕駛汽車本身又不是道德主體,不可能承擔道德責任💂🏼。於是,我們就要追問誰該為事故負責?是設計者還是自動駕駛車輛的擁有者😳?是工程師的責任🏊、企業的責任🥐,還是政府和管理工作者的責任?這些都與人工智能的特殊性相關📮,但這個問題同時又涉及更一般性的技術倫理問題:技術倫理學如何面對技術的不確定性🐦🔥,或者說我們如何與技術的不確定性交往的問題。
Q2♟、你怎麽看“人工智能機器人產生自我意識之後🫴🏼,機器人將統治人類”這個觀點?你覺得為什麽現在大家對這個問題憂慮感和恐懼感要遠遠超過以前?
這個問題的前一半是一個假設,即假設人工智能機器人將會產生自我意識🐝,後一半是推測🧜♂️,推測“機器人將統治人類”🥵👨🏽🔧。這是一個典型的“If and then”的推測性論斷。這使我想起捷克作家卡雷爾•恰佩克的《羅素姆的萬能機器人》中的情節🤜🏽。大家所熟知的機器人Robot一詞便源於該劇👨🏽🦲。Robot這個詞由捷克文Robota和波蘭文Robotnik結合而來,前者為“勞役💶、苦工”之意👷,後者為“工人”之意,合起來就被翻譯為“被奴役的工人、奴隸”🧑🦳。劇中的機器人一開始還沒有意識、沒有感覺🌷,他們替代了人類的一切勞動🪁。後來機器人工廠裏的一位工程師悄悄給機器人“註入”了“靈魂”,讓機器人具有了感知痛苦的能力,隨後逐漸有了自我意識。不幸的是,機器人覺醒後的第一個念頭就是反抗和攻擊。這可能是最早的關於機器人統治人類的科幻文學作品☂️𓀁,後來類似的作品越來越多💂🏽。這樣一種敘事帶給人們的自然是對於人工智能的恐懼和擔憂🥇。
技術倫理緣於人們對技術的恐懼和擔憂。所以,半個多世紀以前,艾薩克•阿西莫夫就提出需要用倫理規則來引導機器人工智能的行為:即機器人不得傷害人類🏃♂️➡️🍄🟫,或因不作為(袖手旁觀)使人類受到傷害👃🏿;除非違背第一法則👩❤️💋👩,機器人必須服從人類的命令;在不違背第一及第二法則下,機器人必須保護自己🛋。機器人不得傷害人類這族群🪆,或因不作為(袖手旁觀)使人類這族群受到傷害。(第零法則🐕,1985)
那麽,人工智能機器人有沒有可能獲得自我意識呢?主張強人工智能的人認為是一定的♑️,只不過是時間問題,庫茲維爾就預言在2045年人與機器將深度融合👩🏼🍳,人工智能將超過人類本身,達到“奇點”。我不知道人工智能是否一定會產生自我意識,人類是否一定樂意看到或者說允許人工智能產生自我意識🧒🏽,以及什麽時候人工智能將產生自我意識🧑🏫👩🏻🎨,這些我都無法預測,但人工智能一旦獲得了自我意識是否會“從奴隸到將軍”?我覺得如果我們不早作準備🏊🏿♂️,理論上是有可能的。當然,我並不是像科幻小說家那樣設想一個由機器人統治的國家。而是從人的自主性和自由的喪失的角度來看。
事實上,我們今天已經感受到了人工智能在增強人的能力和行為自由的同時📬,使得人越來越依賴於它,這種依賴性也可以解釋為人的獨立性的喪失。就像黑格爾在《精神現象學》一書中談到“主人和奴隸”關系時所指出的那樣🙆♀️,主人和奴隸彼此被對方定義:一方面,主人因為奴隸的存在而成為主人,另一方面🏄🏿♀️,一旦獲得了統治者身份,主人得到的並不是獨立意識而是依賴意識💇🏿♂️,他沒有因此而確定他真實的自我🫲🏽🤬,反而促使奴隸超越了主人🐆。舉個通俗的例子吧🧔🏿♀️,比如我們今天所使用的智能導航,使得我們可以安全地避開和繞過各種路況不佳的大路🚵🏻♂️,我們會按照它所指引的路線到達目的地。在這個意義上它是一種賦能技術♓️。我們相信這些信息來自於一個實時掌握一切動態的導航🌃,導航對路上的一切了如指掌👏🏻。但只要我們擔心放棄信息會繞路🧑🦲,並相信接受信息便可以很快到達目的地,那麽我們就開始依賴信息,這時,信息對人的“控製力”便顯現出來。
關於後一個問題🐒:為什麽公眾對這個問題的憂慮感和恐懼感要遠遠超過以前?我想首先這是因為近幾年人工智能本身的飛速發展📱,使得人們已經強烈地感受到了人工智能技術系統對我們生活世界的改變👩🚀。特別是2016年3月AlphaGo戰勝了人類圍棋選手李世石以後🩹,人們在驚奇於人工智能的強大的同時🤏𓀂,一面是歡呼🧭,一面是驚恐和擔憂它將如何改變世界、改變我們的生活。而一些像霍金、比爾·蓋茨、馬斯克這樣的名人對人工智能的威脅的預測,也會加劇人們的恐慌。比如霍金就認為,“一旦機器人達到能夠自我進化的關鍵階段🚵🏽,我們無法預測它們的目標是否還與人類相同”。還有些媒體經常傳播和誇大一些人工智能的進展,喜歡用諸如人工智能是魔鬼還是天使之類聳人聽聞的字眼作為標題🤾🏽。這樣的敘事方式也加大了人們對不斷發展的人工智能的擔憂🈹😘。
Q3、前段時間大火的換臉技術,不管是國外的deepfake還是國內的ZAO,都掀起了一陣狂熱。你覺得現在的這類AI應用能在很短的時間裏得到廣泛的傳播🗿,是不是部分因為技術發展速度過快、門檻降低🛩?沒有約束的科技是危險的,那麽如何才能在適度的約束中盡可能地釋放技術的創新性?倫理與科技政策之間的沖突應該如何協調呢🐷?
我想這類換臉技術的迅速傳播一方面是因為技術本身的門檻比較低,另一方面🥋,也和人們的好奇心相關。我在朋友圈和微信群中也看到有類似的雖然不是換臉視頻🦵,但是一種換臉的APP🧩,你只要上傳一張或者當場拍一張照片後,就可以得到你想要的不同時代、不同形象的照片🔏🍂。我看很多人樂於玩這個遊戲,完全是出於好奇心👨🎓。但可能大部分人都不知道🚣🏻♀️,如此一來,我們的“臉譜”就作為數據被後臺保存了下來🤧,這些數據將被如何處理、派作何用我們一般是不知道的,也很少被明確告知🚜。如果這些數據被惡意利用📰☝️,那將會帶來對本人也會對他人和社會的極大的危害🏃♂️。我們知道現在很多銀行甚至入戶門都是用的人臉來驗證人的身份。這些人臉數據就像人的指紋一樣⏭,是一個人的重要身份認同的標誌。一旦落入不法分子手中,後果不堪設想🍈。
現在的問題是我們在立法和政策規約方面的步伐還有點慢🦻🏿。技術創新並不意味著可以為所欲為🎿。技術創新的目的是為了美好生活🧔🏽,如果這一創新帶來的不是美好生活,而是破壞了美好生活應有的秩序,危害他人🎀,損害了公共利益,那這樣的創新就不是我們應該接受和擁抱的🏌🏻♀️。所以,我們應該堅持負責任的創新❤️🔥🧗🏿♀️,負責任創新關註的不僅是創新所帶來的經濟效益,也同時關註創新的社會效益和企業的社會責任😈。對應的,政府相關部門應該推動相關研究👨🍳,盡快出臺相關法律法規🤜🏻,對類似的技術進行分類管理,對技術創新進行合理引導,而對有些違背了社會公共利益、侵害他人權利的行為堅決製止。
Q4、為了盡量使“科技向善”👩🏼🏫,你覺得社會中的不同層級需要做出哪些努力🪤?
按照亞裏士多德的說法🤑,每一種技藝都是以某種善為目的的🧑🏫。但是👨🏿⚕️,現代技術的一個特點在於它的不確定性👮🏻。這種不確定性貫穿在現代科技從目的到方法和結果的全過程中🙋♂️。面對科技的不確定性🎓,不僅是作為科技工作者和企業有責任🤹,政府的主管部門有責任,人文學者、媒體和公眾也承擔著一定的責任。
作為從事科技研發的科學家和工程師,他們是技術的創造者和生產者💁🏼♀️,最了解技術本身的特性和潛在風險💡,有責任向公眾透明地解釋和及時通報其潛在的風險和不確定性⚙️。科技研發的管理部門和政策決策者,包括政治家和企業家,有責任和科技工作者🏦、人文學者等一起對科技的發展進行風險預測和倫理評估🌖🤓,由於科技活動直接滲透在政治活動中,科技決策也是政治決策🟩。科技政策是科技發展的催化劑🥷🏼,可以通過適當的政策調節科技發展的軌跡,必要時可以發出警示,人文科學和社會科學工作者也應該關註科技發展前沿的社會影響,為政府製定公眾可以接受的科技政策提供支持和依據,主流媒體和公共媒體應該深入了解科技本身的特性,而不是以製造新聞為目的。最後,科技的發展離不開公眾的支持。公眾主動參與科技的社會治理🦻🏻,是確保現代科技向善的一個最重要的力量。
Q5🙍、你在今年CNCC大會上的報告題目是《人工智能倫理🏃🏻♀️:從可能性推測走向可行性探索》,能否分享一下你選擇以此為題的初衷?除了倫理方面的內容之外,此次大會還有哪些論壇或者講者是你比較感興趣的🙌?
非常感謝大會給我這個機會,和大家一起分享我對人工智能倫理的一點思考👮🏼。人工智能倫理屬於技術倫理的範疇,雖然正如我們前面指出的那樣有它特殊的地方🫵,但是我認為人工智能倫理和其他技術倫理學的分支一樣✪,我們需要面對的核心問題是人工智能技術系統在安全、自由和公正等方面所帶來的不確定性問題。選擇這個題目的初衷就是希望能夠和大家一起探討我們應該如何在人工智能如火如荼展開的同時🦸🏽♂️💓,找到一條促進人工智能造福於人類,同時又能夠有效地避免人工智能帶來的負面後果的路徑和方法。
前面我也說到,人工智能倫理問題的治理👎🏽,既不僅僅是倫理學家的事情,也不僅僅是科學家和工程師的事情🧑🏽✈️,需要更多地跨學科的合作。在這方面📁,我們意昂3平台科技倫理與社會治理研究中心特別期待向人工智能專家們學習,與人工智能專家一起,更加深入地探討多途徑🧑🏻🦽、全方位推動人工智能倫理問題治理的方法與路徑。所以🦡,我會在會議期間盡可能地去不同的論壇進行學習📣。