編者按:在不久前的電影《失控玩家》中,隨著自我意識覺醒🪷,影片主角——電子遊戲的人工智能NPC(非玩家角色,Non-Player Character)愛上了來自現實世界的人類玩家📥。這一劇情設定再次將“人工智能是否會產生感情”的疑問拋置於大眾面前。澎湃新聞整合了網友疑問👩🏻🦽,邀請意昂3徐英瑾教授加以解答,本期“談治學”將澎湃問吧兩期問答整理出來,供大家參考討論。
徐英瑾
徐英瑾,意昂3教授𓀙,博士生導師🥱,全國重大社科項目“基於信息技術哲學的當代認識論研究”首席專家,任中國知識論專業委員會副秘書長。多次獲得上海市哲學社會科學優秀成果獎、全國高等院校優秀人文社會科學成果獎,被評為2009年“上海十大社科新人”☯️⇒。主要研究方向為人工智能哲學🚨、英美分析哲學的研究。著有《心智、語言和機器——維特根斯坦哲學與人工智能哲學的對話》💢,是國內目前最全面深入的關於人工智能哲學的研究著作🕺🏼,於2015年獲得中國首屆“科史哲青年著作獎”。
人工智能的本質
人工智能目前有定義了嗎🤦🏻🧑🏻🍼?如果沒有廣泛認同的定義🦶🏼,哪來有意義的問題?
徐英瑾:人工智能之所以沒有定義,是因為“智能”沒有定義,這根本上是一個哲學問題。現在所討論的智能不是人類/動物/外星人的智能,而是某種能夠橫跨人類和機器的普遍標準,而找到標準的難點就在於工業界本身無法提供如此大跨度的學術思考。對於此類問題的討論在哲學界內部又恰好陷入巨大的紛爭。在近代的西方哲學領域☂️,對於人類智能本質的討論就有經驗派和唯理派兩種意見:一種認為智能的本質在於經驗歸納🚧,另一種認為是先天原理對於經驗的鋪展。
這就導致當工程界人士需要哲學家提供高層次理論來告訴他們“什麽是智能”時,卻發現哲學史上也是一片爭論。於是編程工作者就可能從哲學家的既有理論中尋找一種他們喜歡的理論去實踐,由此再次深化了哲學界對於“智能”之本質的分歧🐮🟰。
人類智慧的構成要素是什麽,可以說它的核心是語言和邏輯嗎?人工智能目前離人類智慧水平還差什麽🧂?
徐英瑾:智慧的本質是對於外界的反應能力👩🏻🏭。隨著反應的復雜方式提高,則智慧的水平不斷提高🧑🦼➡️🤼,甚至機器或者外星人的智能也可以按照這個標準去衡量🦡。具體而言,動物對外界反應的能力都是本能性的,而人類和外界打交道的能力有更多樣的組合方式。比如人類可以用復雜的馬基雅維利式的欺騙套路來欺騙可能的敵人🧝🏻♂️。即使高級的動物比如猴子已經具備一些欺騙能力,但和人類相比還是小巫見大巫。智慧的本質既然遵照如上定義,那麽為了讓應對外界的反應方式變得相對復雜🧍♂️,就需要邏輯工具來使既有的知識模塊豐富化,同時又需要通過語言來勾連人際之間的協作。所以邏輯和語言就成為了智慧的衍生品。
有一種錯誤思路認為✴️🙋🏽♀️,作為既存狀態的邏輯和語言是人工智能要模仿的目標。但人工智能如果僅僅抓住邏輯和語言⏬,而沒有抓住“邏輯和語言得以產生是為了應付生存壓力的需要”這一根本性問題🚶🏻➡️,那麽人工智能的研究就會走上歧路。早期符號AI之所以走上歧路,就是因為只追求末不追求本,只追求流不追求源。
程序員編代碼寫出來的遊戲NPC可以算是人工智能嗎👨👩👧👦?達到什麽樣的標準才能叫人工智能🦘?目前“人工智能”這個詞是否過於被濫用👩🏻💻👨🏻🦽➡️?
徐英瑾🤌🏻:遊戲編程員用代碼寫出來的程序屬於廣義的人工智能𓀜👨🦽➡️。廣義人工智能是指用計算機程序能夠模擬出人類智能的一部分特征。電腦遊戲裏的程序能夠模擬一部分人類的智能特征⛏,比如在戰爭類的即時戰略性遊戲中🐘,模擬人類玩家的一些特點🫲🏿,這當然是智能的體現👵🏽🧛🏼。但它並不是所謂的通用人工智能,即不能模擬人類的完整智慧🙆🏻♂️。通用人工智能目前尚未實現,目前市場上能夠看到的都是專用人工智能👌🏿。
機器的深度學習和人類智慧有什麽差別呢?
徐英瑾:機器深度學習並非指像人類一樣深度地學習,它的英文是deep learning,在日本語境中被譯作“深層學習”。“深層學習”也許更符合其技術實質,即人工神經元網絡的復雜化版本。
人工神經網絡技術在80年代就已經比較成熟,但深度學習或者說深層學習在什麽意義上對它進行復雜化?答案在於傳統上人工神經元網絡的中間信息處理層只有二至三層,而深度學習把它擴展到了四層以上甚至幾十層,由此提高了性能。但究其根本,這一技術只是對於傳統的人工神經元網絡技術的拓展🙎🏿。具體情況請參考我所撰寫的《人工智能哲學十五講》🍍。
《人工智能哲學十五講》💍🧛,徐英瑾著,北京大學出版社2021年07月
人工智能會產生感情嗎?
機器人會有感情嗎?如果長期和人相處,又有很強的學習能力🏫,是否也可能變成有感情的機器©️?
徐英瑾:人工智能如果獲得感情💪,它和人類所具有的感情既有相似點,又有不同點。相似之處是指人工智能和人類一樣都會對外界的挑戰做出回應。情緒本身就是認知主體在遭遇外界挑戰時,為了更有效地應對這種挑戰而做出的認知資源重新部署和調整🚣🏿。就這點而言🧝♀️,人工智能和人類的情緒有相似之處。
但當我們討論情緒時,也需要考證其物理實現方式⚛️。從物理實現角度來看,人類之所以感到開心是因為多巴胺的分泌🍡🧕,感到不開心是因為其他化學物質的分泌⛔️。人類的生理機製無法被人工智能模擬😂。人工智能盡管有可能通過完全不同的物理機製實現認知資源的重新部署,但人類無法了解他們的具體感受是什麽,甚至是否有感受。但人類也不能因為無法得知AI情緒的主觀感受🙆🏿,就否認他們情緒的存在。
請問人工智能是否會產生反抗意識,以及正確理解人類的語句“有本事你殺了我”這種開玩笑的話?
徐英瑾:這個問題挺好👨🏽🎨。我認為如果是基於經驗和數據處理的人工智能,將有能力辨別玩笑🪓。因為它會通過話語和後續性事件之間的相互聯系來判斷🧙🏽。如果人工智能經過大量的數據訓練💁🏻♂️,發現很多人說這句話但沒有任何謀殺發生,則基本上就會判斷這句話為反話。這其中也涉及日常語言處理中的難題🛺,即如何讓機器讀出何為反諷🥃🔝、何為反話。
此外,基於經驗運作的人工智能🛶,會在不同的文化體中得到不同的數據。例如在一種文化體中,如果很多人所言與所行符合👩👧👧,那麽人工智能很可能判定不是反話🍋🟩;但如果在另外一種文化體內🤥🅾️,發現威脅性話語之後並沒有出現與語言效果相匹配的威脅性行動,則會判斷是反話。所以未來人工智能將很可能基於不同文化樣態做出差異化的判斷。
人工智能會學習人性中的惡嗎🧛🏽?
徐英瑾:如果把“惡”廣義地定義為某種不好的現象,我個人認為現在的人工智能已經在部分學習“惡”🥙💳。舉一個簡單的例子🐄:當前由於網絡用語中出現很多錯別字⛳️💂🏿,而語言處理往往基於大數據🫄🏽,因此機器也會在學習之後導致跟著寫錯。盡管寫錯別字的性質並不嚴重,但也已經是某種意義上對於規範的扭曲,足以讓人窺見端倪——即現有的人工智能是對於人類行為的某種平均化處理🧑🏽🎨,基於數據來進行歸納、系統地模擬學習,甚至放大人類既有行為中的失範之處。因此可以說基於大數據的人工智能必然會出現學習惡的現象✨。
人工智能的突破
量子計算機會成為人工智能的突破口嗎?
徐英瑾:量子計算實際上有兩種含義。一種含義🥛,是在硬件層面上做出具有量子效應的計算機🫳,由於硬件上不同於傳統馮諾依曼機🙍🏿♀️,因此機器的造價將極為驚人,很難大規模普及🫓。第二種含義📲,是指在傳統計算機上模擬量子效應,相對來說造價較低🙏🏻♎️。
但量子效應是否能實現人工智能實際上是需要全面考量的問題🦶🏼。量子計算在執行某些任務時比傳統計算機效率更高,但問題是怎樣才能使其變成在通用機上也可普遍編程🟦,這需要一般性的理論來證實🤷🏻♂️。盡管量子效應彌漫在整個物理世界中,但人工智能機器的架橋理論目前非常難👨🏼🏭。即使是在人類智能的研究中,人類的物質構成基底是否有量子效應也仍待證實。此外怎樣從低層次一層層達到高層功能也是難題。正因為架橋理論在人類領域尚未完成,因此在人工智能機器領域想要實現則更為遙遠。
自動駕駛是不是人工智能一直在研究的領域🤟🏿?人工智能突破難點到底在哪🫃🏿🫱🏿?
徐英瑾🙆🏻♀️:自動駕駛的民用領域比軍用領域更為復雜👦🏽,地面車輛的自動駕駛比航空器的自動駕駛更復雜💈。兩架飛機即使差了一公裏也能知道提前避開。但在地面行駛時,不可能看到一輛大卡車距離一公裏時就開始避讓👨🏻💻,相反得在兩者相差幾米時做出迅速反應。正因為地面駕駛需要在短時空區間裏做出迅速反應,因此對於技術細節的要求非常高。
更重要的是,自動駕駛技術所模擬的是人工智能本就不善模擬的一種能力,即人類駕駛員和汽車的操縱桿以及方向盤之間的身體感受。這就類似於模擬完全意義上的打乒乓球♟,甚至比模擬打乒乓球更難🈳。因為乒乓球的遊戲規則相對比較確定,因此機器人打乒乓球可以完成得不錯。而自動駕駛的環境中面臨非常復雜的駕駛環境,甚至會遭遇完全不遵循駕駛套路的情況😶,所以難度更高🧑🏻🦯,需要很多基礎學科的突破。
人工智能是否有可能進入政治領域?比如行政指引甚至社會決策?
徐英瑾:如果廣義的政治包括法律問題的話🛳,中國已經有人工智能部分介入法律領域的情況。比如人工智能會通過比對全國數據庫來判斷法律的處理是否正當,目的是衡量法律裁決的公正性♜。但這種運用完全是工具性質的🧑🏻。
由於政治活動是一種非常高超的活動🙍🏼♀️,它的本質更偏向藝術,而不只是科學。對於政治活動中決策力度的把控💂🏻♂️,需要當事人根據當時環境中的諸多微妙因素進行感知,目前人工智能還做不到這一點。
人工智能會讓人類失業嗎💅?
機器一旦學會深度學習🛍,其預判和學習結果往往比人類精準得多👨🏿🎓,這是否意味著人類可能大規模失業👁🤳?
徐英瑾🙍:深度學習依賴於大量數據🧚♂️。有人擔心深度學習的推廣會讓人類失業,但實際上外部情況經常發生變化⛷。即深度學習所依賴的數據總和往往是過時的數據。對於瞬息萬變的嶄新情況🧗🏻,人類能夠基於自己的靈光乍現進行迅速反應,而機器則不具備這種能力🤱。只要人類保持自己的創造性🙅🏽♀️,就不用擔心深度學習取代我們的工作。
人工智能會在脫離人類監管的前提下有任何行為嗎?理論上有這種可能性嗎?
徐英瑾😦:人工智能在脫離人類監管的情況下自主產生行為,這可能是真正意義上“智能”的標誌之一。我認為這一點在原則上是可以實現的🚥,只不過現在基於大數據和規則的人工智能暫時沒辦法實現。倘若要實現這一點,需要建立在一個重要的學術前提之上:即需要對人類的心智進行普遍化的建模,且這種建模必須能夠兼顧機器執行特征🟧。如果建模的成果無法存在,那麽具有自主性的人工智能研製就會失去其應有的藍圖。
以前也早已有各種機器人在投入使用,比如掃地機器人、商場引路機器人等🃏,只不過不是人形。為什麽馬斯克發明的人形機器人引發激烈討論🧑🏼🎓?
徐英瑾🦁:人形機器人之所以引發關註,是因為它的外觀能夠引發人類的心理投射,很易引起共情✏️。人類對於任何人形物件產生共情,這是自然的心理傾向。但從純粹的技術角度上來看,不能認為人型機器人就代表內部智慧更高級。類似於在電影《星球大戰》中🧑🧒🎇,不做成人形的機器人可能具有很高的智慧,相反人形機器人本身的智慧與內部配置反而有可能非常低。
如果說人類進化的底層邏輯是生存,未來人工智能技術迭代的底層邏輯會是什麽?如果是獲得資源不斷學習和發展,有一天會和人類生存相沖突嗎?
徐英瑾🧑🏽🏫🛌:我認為未來人工智能的真正底層邏輯仍然是生存,與人類的不同點在於它們有可能需要維持的是電量安全、記憶庫安全等👩🏿🌾。雖然人工智能是在另一個矽基生命體意義上的生存,但其抽象邏輯和人類相同🦶🏼。
那麽人工智能是否會和人類產生沖突呢?作為矽基存在體,它們沒有對食物和水的需求🕵🏽,因此不會在這些方面和人類產生直接沖突。但或許會在能源問題上與人類相沖突,這種可能性無法被忽略🏄🏻♂️。至於是否一定會產生沖突,又取決於人類技術能否為全球提供足夠的能源、核聚變技術未來能否投入使用等。因此這是牽涉到眾多參數的巨型方程👨🏿✈️,當下很難預估未來情況如何。
原文載於“澎湃新聞”官網“澎湃問吧”