正如硬幣有正反兩面一樣,人工智能功能的發(fā)揮也有其兩面性。一方面,作為工具屬性,人工智能延伸了人的四肢并逐漸解放大腦。使用遠(yuǎn)程監(jiān)控的千里眼、遠(yuǎn)距離信號傳輸?shù)捻橈L(fēng)耳、在古人看來無解的復(fù)雜計(jì)算,這些問題在人工智能那里得到了稀松平常的解決。另一方面,在某些領(lǐng)域,人工智能對人類運(yùn)算、存儲、記憶等能力的替代和超越,孕育了人工智能全面超越人類的可能,而這種可能性增加了人類被支配、被奴役甚至被消滅的危險(xiǎn)。目前來看,越來越多的科學(xué)技術(shù)正在促使這種危險(xiǎn)向人類逼近。那么,如何解讀人工智能這種內(nèi)在的張力?人類的哪些屬性被人工智能改變?如何看待這些改變?
智能時代人類屬性的改變
當(dāng)分析人工智能既便利人類又可能滅亡人類的內(nèi)部張力的時候,我們需要回答兩個問題:一是我們說的人工智能究竟是哪種人工智能?二是這種張力是什么背景下發(fā)生的?
如果人工智能本質(zhì)上是一種利用計(jì)算機(jī)模擬人類智能的技術(shù),那么就可按歷史、流派、文化、功能等角度對其進(jìn)行分類。按照功能大小,人工智能主要分為弱人工智能、強(qiáng)人工智能和超人工智能。所謂弱人工智能主要是為滿足特定需要、在特定方面對人的某一部分具體職能的替代和模仿的智能。這部分是目前應(yīng)用最多的智能。比如,電力設(shè)備自動化控制器、電費(fèi)收費(fèi)軟件、科大訊飛的語音翻譯軟件等。所謂強(qiáng)人工智能,主要是具有一定的通用性或一般應(yīng)用場景的人工智能技術(shù),該智能機(jī)器具有一定思考能力,比如,智慧電廠某些判斷、自動駕駛的推理判斷。超人工智能指具有相對自我學(xué)習(xí)、擁有與人類大腦相似的自主意識和自主創(chuàng)新能力。這種人工智能在科幻片中有很多,比如《人工智能》電影中的威爾,《機(jī)器姬》的那位機(jī)器人。這種超人工智能是弱人工智能和強(qiáng)人工智能發(fā)展的方向和未來。
既然人工智能的種類有如此的不同,那么按照這些種類推斷出的結(jié)論也會千差萬別。如果不在概念統(tǒng)一的共識下進(jìn)行討論,一定是雞同鴨講式溝通。這也是很多人對人工智能產(chǎn)生不同認(rèn)識、得出不同判斷,進(jìn)而擁護(hù)或反對人工智能的原因。對能源電力來講,我們?nèi)粘=佑|的發(fā)、供、配、用電和大、云、物、移、智等概念,主要是電力領(lǐng)域的弱人工智能,即模仿人類的眼睛、耳朵、身體等五識的智能機(jī)器。這些人工智能是強(qiáng)人工智能的基礎(chǔ)。而本文討論的主要是強(qiáng)人工智能,即通用人工智能。這是因?yàn)?,雖然弱人工能力有潛力發(fā)展為人類的替代者,但只是在某個專門領(lǐng)域內(nèi)發(fā)揮作用;超級人工智能還存在于科幻作品中,在不確定的遙遠(yuǎn)未來里。
此時,我們就要回答:強(qiáng)人工智能產(chǎn)生的背景是什么,即人工智能張力是在什么樣的特殊時代背景下產(chǎn)生的。這個背景就是很多人所確認(rèn)的我們已經(jīng)進(jìn)入的人工智能時代。當(dāng)然,使用“人工智能時代”這個說法,不是認(rèn)為這個時代只有人工智能而沒有能源互聯(lián)網(wǎng)、基因工程、物聯(lián)網(wǎng)等科技,而是認(rèn)為人工智能是這個時代的標(biāo)志。正如鐵器時代也有工業(yè),電氣時代也有農(nóng)耕一樣。這個時代,以人工智能為代表的高科技使人類的生產(chǎn)力、生產(chǎn)關(guān)系,生活環(huán)境、生存方式發(fā)生了重要的甚至革命性的變化,這些變化在一定程度上也導(dǎo)致了人類屬性的改變。人工智能不僅通過基因編輯等形式改變了人類的生理屬性(比如試管嬰兒、人造心臟對人類的生理結(jié)構(gòu)的塑造),而且還通過替代人類計(jì)算、記憶等形式改變了人類的智力屬性(文化屬性)。隨著時代的發(fā)展,這種生理屬性和文化屬性的改變呈現(xiàn)不斷匯合的趨勢,這種融合的交替作用正加快人類屬性的較大改變。在這樣一個背景之下,先前有關(guān)人性和理性的理論都要予以重新的審視。
人類屬性有何改變
既然人工智能對人類屬性帶來了改變,那么,這種改變到底是什么樣的改變?回答這一問題的前提是,人類的屬性到底是什么?
人類的屬性是一個自古以來哲學(xué)界一直關(guān)心而沒有標(biāo)準(zhǔn)答案的話題。我們采用康德關(guān)于人類屬性的四個追問,即人類能認(rèn)識什么、人類應(yīng)該做什么、人類可期待什么和人類是什么。這四個追問的核心歸結(jié)為一句話,即如何定義人類在世界上的地位、價(jià)值、生存和發(fā)展的根據(jù)和意義。按照康德的思路,人工智能帶給人類屬性的變化至少在四個方面。一是人屬性中的生物性質(zhì)的變化。人工智能技術(shù)下的基因工程和器官移植,生成了有基因干預(yù)和有器官移植的人類,這一進(jìn)程看似緩慢實(shí)際快速地塑造著新的人類。試管嬰兒和移植器官病例的增加說明,人類的基礎(chǔ)屬性正在遭受人工智能水滴石穿般力量的攻擊。二是由生物屬性變化帶來的人類心理和智力的變化。三是人的相對地位變化。如果說,人類能夠憑借智力而成為萬物之靈長,那么為什么擁有并且可能擁有超過人類智能的機(jī)器就不能作為萬物之首呢?四是人類中心主義的倫理面臨挑戰(zhàn)。如果不能阻止機(jī)器替代人的可能性,那么有什么理由說碳原子合成的肉體比硅原子合成的智能機(jī)更高貴呢?
人工智能對人類屬性的改變已經(jīng)成為既定的經(jīng)驗(yàn)事實(shí)。這其中,腦機(jī)接口研究和生物芯片技術(shù)具有一定的代表性。腦機(jī)接口領(lǐng)域是被世界頂級刊物《麻省理工科技評論》稱為改變世界的一項(xiàng)新興技術(shù)。隨著腦機(jī)接口技術(shù)的不斷發(fā)展,很多漸凍人患者、嚴(yán)重癱瘓患者可重新學(xué)會行走。更重要的是,正常人也可“神通廣大”用意念掌控生活。比如,用思想來操控電腦、駕駛汽車、與他人進(jìn)行交流,而不再需要笨重的鍵盤或液壓方向盤。如果一個人能靠意念極快地獲得快樂,那么奮斗的意義何在?追求的幸福在哪里?
生物芯片技術(shù)是利用半導(dǎo)體工業(yè)中的微加工技術(shù)把DNA、蛋白質(zhì)、細(xì)胞、組織這些非常微小的材料有序地放到芯片上去。在人工智能技術(shù)的支撐下,生物芯片技術(shù)將給生物戰(zhàn)爭、生命科學(xué)、環(huán)境監(jiān)督等領(lǐng)域帶來巨大的革新甚至革命。個人記憶是人類認(rèn)同的唯一根據(jù)。倘若人的記憶可以通過腦—機(jī)結(jié)合強(qiáng)化,可以通過生物芯片技術(shù)改變,那么記憶的內(nèi)容同樣也可以由此而改變。這個時候,被人工智能武裝過的腦機(jī)接口(生物芯片)人還是之前的那個人嗎?如果不是,與之前的人又有何區(qū)別呢?
退一步說,即便人工智能沒有改變?nèi)说闹黧w性。那么,在人的主體地位上,人工智能崛起也給人類帶來挑戰(zhàn)。比如,人類頂尖棋手僅僅能測算部分棋牌步驟,而阿爾法狗卻能在只掌握圍棋基本規(guī)則的前提下,依靠自我學(xué)習(xí),就將人類打得毫無還手之力!如果說腦機(jī)接口、生物芯片、阿爾法狗距離我們還遙遠(yuǎn)的話,那么,許多專業(yè)性的工作逐漸被弱人工智能所取代現(xiàn)象正在不斷量變。如,以十年為界比較電廠供用電技術(shù)的變遷,以五年為界比較移動互聯(lián)網(wǎng)對PC互聯(lián)網(wǎng)的代替。那些原本被視為高端智力工作被呆頭呆腦的機(jī)器所取代,而人類還得聽從它的安排,因?yàn)橐恍┦虑闄C(jī)器過不去、程序過不去,人類就過不去。
人工智能對人類屬性的生物屬性、智力屬性的改變,可能不會如奇點(diǎn)一樣突然涌現(xiàn),但當(dāng)這些改變演變到普遍程度時,整個人類的物理基礎(chǔ)、行為規(guī)范都會產(chǎn)生本質(zhì)的改變。
面對人類屬性改變的應(yīng)對策略
對人工智能帶來人類屬性的改變,有樂觀者,有悲觀者,也有無動于衷者??茖W(xué)家可能更多關(guān)注在技術(shù)實(shí)現(xiàn)方面的弱人工智能,而哲學(xué)家更關(guān)注人類可能被取代的強(qiáng)人工智能??茖W(xué)家與哲學(xué)家的這種分歧的結(jié)果是,科學(xué)家對人的本質(zhì)屬性并不關(guān)心,哲學(xué)家對科學(xué)的技術(shù)可能泛泛而談。
但,未來已來。
對于如何防范人工智能危機(jī)的問題,學(xué)界有很多建議,且并沒有統(tǒng)一的意見。其中比較著名的是美國科幻作家阿西莫夫提出的《機(jī)器人學(xué)的三大法則》:機(jī)器人必須保護(hù)人類的整體利益不受傷害(第零法則)。機(jī)器人不得傷害個體人類,或者目睹人類個體遭受危險(xiǎn)而不管不問,除非這違反了機(jī)器人學(xué)第零法則(第一法則)。機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第零法則或者第一法則沖突時例外(第二法則)。機(jī)器人在不違反第零、第一、第二法則的情況下可盡可能保護(hù)自己的生存(第三法則)。看來堪稱完美,但是,“人類的整體利益”這種混沌的概念,連人類自己都搞不明白,更不要說那些用0和1來想問題的機(jī)器人了。威爾·史密斯說:“機(jī)器人沒有問題,科技本身也不是問題,人類邏輯的極限才是真正的問題。”
筆者以謹(jǐn)慎樂觀的態(tài)度提出建議。
一是成立人工智能倫理建設(shè)委員會。該委員會包括人工智能領(lǐng)域的科學(xué)家、工程師和倫理、法律、政治、經(jīng)濟(jì)、社會等領(lǐng)域的專家,在民主協(xié)商的基礎(chǔ)上,按照“少數(shù)服從多數(shù)”的原則,對人工智能的發(fā)展規(guī)劃和前沿技術(shù)的研發(fā)開展評估并提出建議。
二是以人為本。既然人工智能是一項(xiàng)人類創(chuàng)造的為人類服務(wù)的技術(shù),那么,就應(yīng)堅(jiān)持人類為中心的倫理,使這項(xiàng)技術(shù)盡可能滿足人類多方面的愿望和不斷增長的需要。既不能因噎廢食而抗拒人工智能,放棄人工智能造福人類的機(jī)會;也絕不應(yīng)該過于自信、任其發(fā)展,而使得人工智能的負(fù)面效應(yīng)、可能風(fēng)險(xiǎn)傷害人類。
三是合理公正原則。對于人工智能可能造成的失業(yè)問題甚至造就無用階層的問題,應(yīng)該確立公正原則,讓人工智能為盡可能多的人服務(wù),讓盡可能多的人共享其成果。任何人都應(yīng)平等接觸人工智能,可以自由使用人工智能。
當(dāng)然,隨著技術(shù)進(jìn)步和社會發(fā)展,人工智能會有新變化,我們應(yīng)該面對這些已經(jīng)或即將發(fā)生的變化提出新的應(yīng)用對策。(作者系中央民族大學(xué)中華文化研究院特聘研究員,高級編輯)
原載《當(dāng)代電力文化》2020年第6期
評論