如果我們創(chuàng)造出了達到或者超過人類智能水平的人工智能(AI),會發(fā)生什么?人類會成為自己發(fā)明的受害者嗎?在不遠抑或是遙遠的未來,人類與機器人可以和平共處嗎?人類有一天,會向機器人乞討嗎?在2017年,《紐約客》雜志的一幅封面畫引發(fā)了一場有關(guān)于人類與機器人的大討論。而今,由人工智能引發(fā)的爭論正在變得比當(dāng)時更多也更加激烈,這其中既有技術(shù)的紛爭,也充斥著倫理和法律的博弈。
《紐約客》雜志封面畫(2017年10月)?;鶐臁ぜs翰遜(R. Kikuo Johnson)繪。
插圖對應(yīng)的封面文章名為《黑暗工廠》(Dark Factory),描述了密歇根州大急流城Steelcase金屬廠中一些被稱作“人肉機器人”的工人的故事,在這家公司,越來越多原本由人類從事的工作都被機器人取代。在這幅由基庫·約翰遜(R. Kikuo Johnson)繪制的封面畫中,年輕的人類乞丐坐在未來的曼哈頓街頭乞討,路上穿過的形形色色的機器人“上班族”和“行人”則向他手中的杯子里投擲著螺絲和墊片,他身旁的小狗也“目瞪口呆”地注視著面前通過的機器狗。
不可否認的是,人工智能正在成為日常生活的一部分——雖然它在即將過去的2020年并未取得重大突破,但顯然,它已經(jīng)切實改變了每一個人的生活。對于熟悉科幻小說、影視作品的人們來說,其中虛構(gòu)的未來,可能正是我們所身處的現(xiàn)在。人工智能生態(tài)系統(tǒng)、無人駕駛汽車、智能個人助理、家用機器人……蓬勃發(fā)展的人工智能通過智能手機、家電、汽車等終端深入家庭、企業(yè)和各種公共設(shè)施,它是當(dāng)下的普遍現(xiàn)象,更是未來的主導(dǎo)技術(shù)。
在人類尚未進入技術(shù)時代開始,有關(guān)機器人的想象就大量存在于文學(xué)和戲劇、影視作品之中。起初,人們擔(dān)心人工智能會背叛人類——機器會因為更加聰明(智能)而反抗人類,甚至消滅人類。
比如在根據(jù)科幻大師阿西莫夫短篇小說改編的電影《我,機器人》中所探討的正是人與機器之間的關(guān)系。影片中,機器人具備了自我進化的能力,它們隨時會轉(zhuǎn)化成整個人類的“機械公敵”。而“終結(jié)者”系列,探討的同樣是機器人毀滅人類。為人工智能賦予人類的感情,衍生的又是一個全新的故事。史蒂文·斯皮爾伯格導(dǎo)演的《人工智能》中,機器人小孩大衛(wèi)試圖尋找自己的生存價值:渴望變成真正的小孩。
這些故事塑造了我們對人工智能的認知,阿西莫夫創(chuàng)作的“機器人三大定律”也因為這些作品的一再表述而成為我們看待機器人的“標準”信條。但在斯圖爾特·羅素(Stuart Russell)看來,這或許反而成為了人類的某種誤區(qū),比如讓人工智能“服從人類”顯然就是個壞主意。
斯圖爾特·羅素(Stuart Russell)(版權(quán):Peg Skorpinski),加州大學(xué)伯克利分校計算機科學(xué)家,人類兼容人工智能中心(CHAI)主任,人工智能研究實驗室指導(dǎo)委員會(BAIR)成員。世界經(jīng)濟論壇人工智能和機器人委員會副主席,美國科學(xué)促進會(AAAS)會士,美國人工智能協(xié)會(AAAI)會士。羅素獲得過多項科學(xué)榮譽,包括美國國家科學(xué)基金會總統(tǒng)青年研究員獎、國際人工智能聯(lián)合會議(IJCAI)計算機與思想獎、國際計算機學(xué)會(ACM)卡爾斯特朗杰出教育家獎等,并受邀在TED、世界經(jīng)濟論壇演講。
一個極端的案例是,如果人類賦予機器人一個錯誤的或者存在漏洞的目標,這可能是致命的。假如我們希望通過人工智能系統(tǒng)控制氣候變化,并為其設(shè)定將大氣中的二氧化碳水平恢復(fù)到工業(yè)革命前水平的命令,這一系統(tǒng)很可能會得出消滅人類的結(jié)論——因為人類活動是產(chǎn)生二氧化碳最主要的來源。即便人類為此附加條件不能消滅人類,人工智能系統(tǒng)也可以會以說服的方式讓人類少生孩子,直到人類自然滅絕。
身為美國加州大學(xué)伯克利分校計算機科學(xué)家的斯圖爾特·羅素,是當(dāng)今世界上人工智能領(lǐng)域的權(quán)威專家,他曾與谷歌研究總監(jiān)彼得·諾維格合著出版了人工智能領(lǐng)域里的“標準教科書”《人工智能》,該書被128個國家的1400多所大學(xué)使用。就在今年二月,他已經(jīng)完成了該書的第四版。
今年十月,斯圖爾特·羅素的著作《AI新生:破解人機共存密碼——人類最后一個大問題》引進出版,在這本書中,羅素提出了一個問題:如何破解人機共存的密碼,使得人類可以掌握比我們自身強大得多的智能?在過去相當(dāng)長的一段時間里,人類之所以能控制地球,是因為人類的大腦比其他動物的大腦要復(fù)雜得多。而這正是因為“智能”,是一種權(quán)利。因此,羅素更為關(guān)注的,是對于這些比我們更強大的機器,如何保持絕對的控制權(quán)?在新京報記者對羅素的采訪中,他回答了一些關(guān)于人工智能我們所關(guān)心,或者未知的問題。
《AI新生:破解人機共存密碼——人類最后一個大問題》,[美]斯圖爾特·羅素(Stuart Russell)著,張羿譯,中信出版社2020年10月版。
斯圖爾特·羅素:目前對人工智能的思考方式,我將其稱之為“標準模型”。也就是說,我們賦予機器以最佳方式去實現(xiàn)目標的能力,然后給予它們一個目標,它們開始運行。當(dāng)定義了一個錯誤目標時,就會出現(xiàn)問題,現(xiàn)實情況中總會出現(xiàn)這樣的狀況。在許多文化中,都有著類似的傳說:一個人被賜予三個愿望,而第三個愿望,總是會推翻前兩個愿望——因為它們毀掉了一切。
來自機器人的“阻力”并非來自意識,而是機器人會追求我們所賦予它們的目標,而這可能會與我們真正想要達成的目標產(chǎn)生沖突。我們當(dāng)然可以試著停止機器,或者徹底關(guān)閉它。但是,如果它們比我們更加聰明,這也許會成為一個不可能完成的任務(wù)。
如果我們編寫了一個智能程序,它的行為方式就會完全由代碼決定,這個時候,人工智能是否有意識,對于即將發(fā)生的事情并不會產(chǎn)生任何影響。當(dāng)然,我們也完全不知道如何去制造一個擁有自主意識的人工智能,也不可能知道我們是否已經(jīng)制造了一個。
人們之所以會關(guān)注(偶然)創(chuàng)造意識,主要原因是因為擁有自我意識的機器也許應(yīng)該擁有一些特權(quán),而這將使人工智能研究者以及其他人的生活變得非常復(fù)雜。想象一下這樣的場景,你的烤面包機正在與冰箱進行著關(guān)于生命意義的精彩對話時,你拔下了它們的插頭,然后因此被送進了監(jiān)獄。
電影《人工智能》劇照。
故事發(fā)生于21世紀中期,由于溫室效應(yīng),南北極冰川融化,地球上很多城市被淹沒,人工智能機器人就是人類發(fā)明出來用以應(yīng)對惡劣自然環(huán)境的科技手段之一。在影片的設(shè)定中,機器人制造技術(shù)已經(jīng)高度發(fā)達,先進的機器人不但擁有可以亂真的人類外表,還能感知自身的存在。
我們到底應(yīng)該如何理解“人工智能”這一概念?在《AI新生》中你提到,超級人工智能的成功可能意味著人類的毀滅。
斯圖爾特·羅素:粗略地講,如果一個實體是智能的,它就會根據(jù)它的感知來做事情,而它所做的事情是為了滿足它的需求。我們可以用一種很自然的方式來理解它的含義:“智能”意味著以一種可以預(yù)期的方式來實現(xiàn)一個人的目標的能力。智能包括了多種能力:比如推理、學(xué)習(xí)和交流能力,都可以理解為對這種能力的貢獻。
對于人類而言,智能是一種非常好的能力。不幸的是,“人工智能”這一概念的框架形成于上世紀四五十年代間,而這也成為我們今天對人工智能的理解。這也正是我在前面所提到的“標準模型”。當(dāng)然,機器本身并沒有自己的目標,這些目標都來自于人類的設(shè)定。如果我們設(shè)定了錯誤的目標,就會導(dǎo)致失敗。
如果你仔細思考一下,就會發(fā)現(xiàn),創(chuàng)建一個可以自主追求并設(shè)定固定目標的機器是沒有意義的——制造出能夠?qū)崿F(xiàn)自己目標的機器就更沒有意義了!我們應(yīng)該制造那些只能夠幫助人類實現(xiàn)目標的機器,即使它們并不能理解這些目標到底是什么。
人工智能究竟會如何改變我們的未來是一個非常熱門的話題。如果我們制造出比人類更為智能的機器,將會發(fā)生什么?你心目中的人工智能時代是什么樣的?
斯圖爾特·羅素:如果可以成功創(chuàng)建出那些安全、有益的人工智能系統(tǒng),我們將會獲得幾乎難以想象的好處,這些好處來自于運用更為強大的智能來推進人類文明的能力。我們將從數(shù)千年來,作為農(nóng)業(yè)、工業(yè)和文書工作的奴役中解放出來,能夠自由、充分地發(fā)揮和利用生活最大的潛力。站在這個黃金時代的有利位置上,回顧我們當(dāng)下的生活,可能正如托馬斯·霍布斯(Thomas Hobbes)所想象的那樣:充滿著孤獨、貧窮、骯臟、野蠻和短暫。
電影《2001太空漫游》(1968)劇照。
故事設(shè)定開始于2001年,為了尋找黑石的根源,人類開展一項木星登陸計劃。飛船上有冬眠的三名宇航員,大衛(wèi)船長、富蘭克飛行員,還有一部叫“HAL9000”(赫爾)的高智能電腦。
具體來說,這樣的人工智能系統(tǒng),可以讓我們把地球上每一個人的生活水平都提升到一個像樣且體面的程度;每一個人都可以獲得一位私人導(dǎo)師來指導(dǎo)他們的成長;每一個在目前看來昂貴、困難、進展緩慢甚至(在世界某些地區(qū))無法得以實施的社區(qū)項目都會變得可行。
對于你個人而言,人工智能的應(yīng)運,對你的生活帶來了哪些改變?
斯圖爾特·羅素:在我的日常生活中,人工智能提供了即時、免費且高質(zhì)量的翻譯。我因此可以閱讀出版商用中文發(fā)來的文件,我也經(jīng)常閱讀法國政府寄來的法律和稅務(wù)文件(不幸的是,我也看不懂他們發(fā)來的英文)。和數(shù)十億人一樣。我每天都要使用搜索引擎(它們大多由人工智能驅(qū)動)來尋找那些過去被深藏于圖書館或百科全書中,或者根本得不到的信息。那些在過去緩慢、昂貴或難以訪問的東西,正在變得即時、免費、唾手可得。而這正是現(xiàn)如今人工智能為我們生活帶來的改變——這不僅僅是信息服務(wù),還包括了各種商品和其他服務(wù)。
如果一臺機器通曉人類所有語言,且能夠以一種迅速而強大的方式獲取人類知識(盡管在你看來這不太可能),普通人閱讀和學(xué)習(xí)還有意義嗎?人工智能是否會顛覆人類獲取知識的方式?
斯圖爾特·羅素:如果一個機器人可以快速的吃掉冰淇淋,是否意味著人類將停止吃冰淇淋?并不會!我們閱讀,是為了娛樂和學(xué)習(xí)。顯然,我們將繼續(xù)這樣做。當(dāng)然,人工智能可以幫助我們?nèi)ラ喿x那些我們難以獨立完成閱讀的書籍和資料。
電影《機械姬》(2014)劇照。影片中,天才一般的納森研制了具有獨立思考能力的智能機器人伊娃,為了確認她是否具有獨立思考的能力,他希望加利能為伊娃進行著名的“圖靈測試”。似乎從第一眼開始,加利便為這臺有著宛如人類般姣好容顏的機器人所吸引。
人工智能將來有可能取代作家嗎?盡管一些人可能不這么認為。
斯圖爾特·羅素:是的,人工智能正在取代創(chuàng)作者,特別是對于新聞而言。這種現(xiàn)象將會變得越來越普遍,而且,這會很快。目前,許多文章的原始資料已經(jīng)可以在網(wǎng)上輕易獲取,人工智能只需要收集和整理這些信息,并以某種可讀的方式將它們呈現(xiàn)出來。目前,人工智能還不能準確處理人類、社會、政治、國際關(guān)系方面的內(nèi)容——這種情況當(dāng)然會得到改變,但還需要很長一段時間。
不過,我認為,人工智能很快就可以通過閱讀數(shù)以百萬計的書籍,并將其中的一些元素進行重新編織,形成新穎的組合,從而創(chuàng)作出具有創(chuàng)造性和吸引力的作品。
你曾經(jīng)提出了人工智能的三個新原則:而這顯然和阿西莫夫定律背道而馳,你為什么會做出如此修改呢?
斯圖爾特·羅素:這三個原則如下:1、利他主義(Altruism)——機器的唯一目標是最大限度地實現(xiàn)人類的偏好;2、謙遜原則(humility)——機器最初并不確定人類的偏好是什么,這是創(chuàng)建有益機器的關(guān)鍵;3、學(xué)習(xí)預(yù)測人類偏好,人類偏好的最終信息來源是人類行為。
阿西莫夫(Asimov)設(shè)計他的三定律(不傷害人類、服從人類、保護自我)是為了創(chuàng)造有趣的情節(jié),而不是為了保護人類免受機器人的傷害?!安粋θ祟悺钡脑瓌t與我的第一條原則相似,只是阿西莫夫認為“傷害”有一個固定的定義——而這正是我試圖避免的。
出于同樣的原因,“服從人類”也是個壞主意,尤其是當(dāng)這個人類是一個脾氣暴躁的兩歲兒童時。他的機器人“保護自我”原則是完全沒有必要的,因為如果機器人的繼續(xù)存在對人類有幫助的話,它會自動做到這一點。而且,正如它應(yīng)該做的那樣,《星際穿越》中的TARS機器人也應(yīng)該為了拯救人類而快樂地自殺。
電影《星際穿越》(2014)劇照。右側(cè)方形物體為TARS機器人。
有幾種情況可能會誤解這些原則。最為常見的是人們認為我是在建議把一套人類的價值觀插入機器,例如基督教價值觀或儒家價值觀。沒有這回事。機器應(yīng)該為每個活著的人設(shè)置一個單獨的偏好模型,這個模型是基于人類的偏好(其中大部分是機器并不知道的)。同樣重要的是,要明白機器不會把這些偏好當(dāng)成自己的,它只是在學(xué)習(xí)人類想要什么。它也學(xué)不會像人類一樣行事,就像犯罪學(xué)家不會學(xué)著像罪犯一樣行事。這臺機器完全是利他主義的,沒有自己的偏好。
最為困難的問題來自于專業(yè)的哲學(xué)家,他們已經(jīng)為此思考了幾千年。有些人會問:人類的偏好是不穩(wěn)定的,是可以被操縱的,我同意這是上述三個原則的一個問題。其他人則問,偏好——我們希望未來如何——是否真的可以作為在道德上站得住的決定的基礎(chǔ),以及我們是否也需要考慮權(quán)利。令人擔(dān)憂的是,許多人的偏好可能會侵犯個人的權(quán)利。關(guān)于這一主題的書籍已經(jīng)有成千上萬了,因此我不會在這里提出自己的意見,只想說我相信對立的觀點實際上也是可以調(diào)和的。
電影《黑客帝國》(1999)劇照。
片中,網(wǎng)絡(luò)黑客尼奧對這個看似正常的現(xiàn)實世界產(chǎn)生了懷疑。他結(jié)識了黑客崔妮蒂,并見到了黑客組織的首領(lǐng)墨菲斯。墨菲斯告訴他,現(xiàn)實世界其實是由一個名叫“母體”的計算機人工智能系統(tǒng)控制,人們就像他們飼養(yǎng)的動物,沒有自由和思想,而尼奧就是能夠拯救人類的救世主。
今年春天,我和兩位哲學(xué)家,一位經(jīng)濟學(xué)家一起上了一堂課,研究了一些難題,即機器做出的決策對人類有益到底意味著什么,尤其是當(dāng)我們考慮到有許多人有著不同的偏好時。這些問題在道德哲學(xué)和政治理論中已經(jīng)提出了很長時間,但我們需要盡快回答它們!否則我們的人工智能系統(tǒng)就會遵循非常錯誤的理論。我覺得這很有趣,我很確定我們能取得一些進展。
那么,你會如何看待有關(guān)于人工智能的科幻小說或者影視作品呢?
斯圖爾特·羅素:我小時候讀過很多科幻小說,最近幾年,我又開始和孩子們一起閱讀?,F(xiàn)在,我正和二兒子喬治一起看劉慈欣的《三體》三部曲,和小兒子艾薩克一起看《星際迷航》。我一直在尋找那些描繪人類與超級智能愉快共存并擁有美好未來的作品。這樣的作品不是很多。比如伊恩·班克斯(Iain Banks)的“文明”系列,在他的構(gòu)想中,未來的人工智能系統(tǒng)比人類的能力要強大得多,但它們(以某種方式)被設(shè)計成幾乎完全有利于人類。他無法回答的一個明顯問題是,當(dāng)機器完美地運行一切時,人類能在生活中找到什么目的。他們有大量的閑暇時間和無限的物質(zhì)資源,但缺乏明確的目的,人們拼命地競爭極少數(shù)可以提供真正挑戰(zhàn)的職位。
電影《星際迷航》(2009)劇照。
像大多數(shù)人工智能研究人員一樣,我相當(dāng)有信心我們將實現(xiàn)達到人類水平的人工智能,盡管這可能不會像許多人認為的那樣快。我們?nèi)匀恍枰朔恍┚薮蟮母拍钚蕴魬?zhàn),很難說這需要花費多長時間。
在新款Neuralink腦機接口芯片的發(fā)布儀式上,埃隆·馬斯克說,人們將能夠通過BCI召喚他們的特斯拉。你也曾經(jīng)提到過一種極端情況:人機一體化,電子硬件直接連接到大腦,成為單一的、可擴展的、有意識的實體的一部分。我們應(yīng)該如何看待人類與人工智能之間的共生機制?
斯圖爾特·羅素:人腦能夠向設(shè)備發(fā)出命令是一回事,比如現(xiàn)在癱瘓的人可以使用機器手臂。但當(dāng)我們試圖通過電子設(shè)備,增強大腦的思維過程時,這件事就截然不同了。如果每個人都必須接受腦外科手術(shù)才能夠上學(xué),這難道不是我們犯了一個大錯?
數(shù)字永生呢?
斯圖爾特·羅素:到目前為止,將我們大腦中的全部思想和記憶上傳到計算機中仍然是一個推測。我們并沒有理論可以解釋為什么人類的意識、體驗可以存在,因此,我們也無法確定將思想和記憶的結(jié)構(gòu)、狀態(tài)復(fù)制到計算機中,我們?nèi)匀豢梢源嬖凇LK珊·施耐德(Susan Schneider)撰寫的《人造的你》(Artificial You)一書對這個問題進行了廣泛的討論。
《人造的你》(Artificial You),蘇珊·施耐德(Susan Schneider著,普林斯頓大學(xué)出版社(Princeton University Press)2019年9月版。
濫用人工智能的可怕后果是什么?很明顯,這一部分的某些東西會讓人非常沮喪。
斯圖爾特·羅素:就像任何技術(shù)一樣,人工智能也可能被濫用。以下是幾種可能的情況:用于監(jiān)視、勸說和控制的人工智能可以極大地減少人們的自由。而且,人工智能可以產(chǎn)生和傳播虛假信息,并且模仿人類,使得人們很難知道什么是真的。
用于殺人的人工智能自主武器是致命的,很容易變成大規(guī)模殺傷性武器,因為人工智能武器不需要人類來監(jiān)督,而且可以成百萬計的發(fā)射。人工智能最終可能取代大多數(shù)人類工作——如果我們不能迅速調(diào)整社會和教育系統(tǒng),讓人們得以適應(yīng)一個完全不同的世界——這將引發(fā)巨大的問題。
隨著人工智能時代的到來,我們的文明會終結(jié)嗎?當(dāng)我們把所有的知識都投入到機器中,讓機器來管理我們的文明,人類的惰性很可能導(dǎo)致這種結(jié)果。如何避免這種結(jié)果?
斯圖爾特·羅素:這里有兩個問題。首先,我們能否確保超級智能人工智能系統(tǒng)是安全和有益的?我認為答案是肯定的。第二,當(dāng)人類文明由機器在運轉(zhuǎn)時,還能保持它的活力嗎?尼克·博斯特羅姆(Nick Bostrom)在他的《超級智能》(Superintelligence)一書中說,第一個問題是“我們這個時代的基本任務(wù)”,但是如果我們回答了第一個問題,那么第二個問題就成了我們這個時代以及所有未來時代的根本任務(wù)。
《超級智能》(Superintelligence),尼克·博斯特羅姆(Nick Bostrom)著,Oxford University Press2014年9月版。
我們應(yīng)該從哪里找到目標,無論是個人的還是集體的?也許人工智能會來拯救我們,因為目標和挑戰(zhàn)是人類生活的重要組成部分,它們的消失顯然不是我們希望看到的未來。因此,可以說,機器必然會后退一步,為人類留下可成長的空間。