谷歌資深工程師:人工智能不會爆炸,奇點未必存在
AI來了。不對,是AI又來了,F在AI在很多事情上都已經比人厲害,比如下圍棋、識別特定圖像什么的。按照數學家I.J.Good的想法,既然人能造出比人厲害的機器,那么這些機器也將制造出更多比自己更智能的機器,從而很快會出現智能的爆炸。后來,包括算機科學家弗諾?溫格和未來學家RayKurzweil在內的一些人提出了奇點來臨的觀點,認為人類造出比人更聰明的機器將帶來人類時代的終結。包括霍金和ElonMusk在內的一批人都認可AI的這種威脅的緊迫性。那么智能到底會不會爆炸呢?奇點會不會很快來臨呢(RayKurzweil的觀點是2029年)Python深度學習框架keras.io的開發者、Google資深軟件工程師Fran?oisChollet從觀察出發,通過對智能和遞歸自我改進系統的認識分析了這一看法的真偽。他的論證非常有說服力,其結論也令我們寬心。
1965年,I.J.Good首次提出了智能爆炸的概念,這個概念跟人工智能(AI)有關:
姑且把超級智能定義為一臺遠遠超越任何人(不管他有多聰明)所有的智力活動的機器。既然設計機器也是這些智力活動之一,那么一臺超智機器也可以設計出比自己更好的機器;這樣一來無疑將出現智能爆炸,而人的智能將會被遠遠拋在身后。因此,鑒于這臺機器足夠溫順可告訴我們如何讓它處在我們的控制之下,第一臺超智機器將成為人類所需的最后一項發明。
數十年后,智能爆炸也就是導致超智突然崛起,人類意外滅絕的概念已經在AI社區落地生根。知名的商界領袖把它當作比核戰爭和氣候變化還要重大的風險來宣揚。普通的機器學習研究生也認可這一點。在2015年面向AI研究人員的一項調查中,29%的受訪者回答說智能爆炸的發生有可能或者高度可能。另有21%者認為有非常大的可能性。
這些論斷的基本前提是,在不久的將來,第一個種子AI將會被創造出來,這個AI會有稍微超過人類的一般問題解決能力。這個種子AI會開始設計更好的AI,開啟一個可馬上讓人類智能望塵莫及的遞歸自我改進循環,在很短的時間內就超過了人類好幾個量級。這一理論的支持者還把智能看成是某種超級力量,賦予其持有者塑造環境的近乎超自然的能力比方說,就像我們在科幻電影《超驗駭客》中所看到的一樣。超級智能因此將意味著近乎全能,并且會對人類構成生存威脅。
這種科幻小說的敘述手法助長了危險的、具有誤導性的有關AI風險與對AI監管需求的公眾辯論。但我認為智能爆炸是不可能的智能爆炸的看法來自于對智能的本質與遞歸式自我改進系統有著很深的誤解。在本文中我會試著以對智能系統和遞歸系統的具體觀察為基礎提出我的觀點。
源自對智能的誤解得出的推理是有瑕疵的
就像產生于1960、1970年代的眾多早期理論一樣,智能爆炸背后的推理有點強詞奪理:該理論把智能看成是一個跟環境脫節的、完全抽象的概念,并且忽視了有關智能系統和遞歸自我改進系統的已有證據。其實未必就是這樣的。畢竟嘛,我們都生活在一個滿是智能系統和自我改進系統(包括我們自己)的星球上,所以完全可以去觀察這些系統并從中去了解,進而回答這個問題,而不是憑空想出毫無證據的循環論證。
要想討論智能及其可能的自我改進屬性,我們首先應該介紹一點必要的背景和上下文。當我們在討論智能的時候我們在討論什么呢?對智能本身的精確定義就是一個挑戰了。智能爆炸的說法等同于體現在智能代理個體(目前的人腦、或者未來的電子大腦)身上的、有著一般問題解決能力的智能。當然這還不是全部,所以我們不妨把這個定義作為起點,然后在此基礎上再慢慢拓展。
智能是情景化的
我認為智能爆炸理論的第一個問題是未能認識到智能是一個更大的系統的必要組成部分以為智能是密封起來的大腦,獨立于環境就能做出任意智能的東西來。大腦不過是一團生物組織罷了,它本身本來就沒什么智能的。除了大腦以外,你的身體和感覺你的感覺運動的環境賦使這些都是思維必不可少的部分。你的環境是你的智能的基本部分。人類文化是你的智能的基本部分。畢竟,這些是你所有想法的來源。你不能夠把智能跟表達智能的上下文脫離。
尤其是并不存在所謂的一般智能這樣的東西。就抽象意義而言,我們是通過沒有免費午餐定理了解到這一點這個定理說的是沒有一個問題解決算法能夠比搜索空間的純隨機搜索算法更優。(對于所有可能的問題,任意給定兩個算法A、A’,如果A在某些問題上的表現比A’好,那么A在其他問題的表現就一定比A'差,反之亦然。也就是說,任意兩個算法A、A’對所有問題的平均表現度量是完全一樣的)如果智能是個問題解決算法的話,那么只能針對特定問題來理解它。說得更具體一點,就經驗來看,我們觀察到的所有已知的智能系統都是高度專門化的。我們目前所開發的AI的智能都是專門用來處理相當狹隘的任務的比如下圍棋的,或者把圖像分成1萬個已知類別的。章魚的智能時候專門用來處理章魚所面臨的問題的。人的智能是專門用來處理人所面臨的問題的。
如果我們把剛剛形成的人腦放到章魚的身體里面,然后讓它生活在海底會發生什么事情呢?它甚至能不能學會運用自己有8條腿的軀體呢?它能不能活幾天下來呢?我們無法進行這樣的實驗,但是我們的確知道人類和動物的認知發展是由硬編碼的、先天的動力驅動形成的。人體天生就有一套預置的反射行為以及固有的學習模板來推動早期的感覺運動發展,而這個跟人類感覺運動空間的結構是緊密關聯的。大腦已經把有手能抓東西,有嘴能吃東西,會轉動的腦袋上面有眼睛能用于在視覺上跟蹤對象(前庭眼球反射)的軀體概念硬編碼進去了,這些感覺需要人類智能開始去控制人體。比方說Chomsky(喬姆斯基)就曾經令人信服地提出,非常高級的人類認知特點,比如發展出語言的能力,就是天生的。
類似地,為了學習如何運用章魚軀體并且在章魚的環境下生存,你也可以想象章魚也有自己的一套必要的、硬編碼進去的認知基元。人腦是高度針對人類環境的,這屬于一種天生的專門化,這種專門化的范疇可能要延伸到社會行為、語言以及常識,而章魚的大腦類似地也會高度針對章魚的行為。人類嬰兒的大腦哪怕嫁接到章魚身體也很有可能無法對其獨特的感覺運動空間進行充分控制,會很快死掉,F在你可就沒那么聰明了,超級大腦先生。
如果我們把一個人放到一個不具備眾所周知的人類文化的環境里面去會怎樣呢?一群狼撫養長大的森林王子毛克利(Mowglitheman-cub)長大后會不會比他的犬科兄弟更聰明呢?或者跟我們一樣聰明?如果我們用嬰兒愛因斯坦替換嬰兒毛克利的話,他會不會自學成才想出宇宙的大理論呢?經驗證據相對比較缺乏,但是就我們所知,在脫離人類文化的自然環境下長大的小孩并不能形成任何的人類智能。在野外撫養的野孩子從一開始就其實就變成了動物,就會回歸文明也不再能養成人類行為或者語言。在南非,由猴子撫養的SaturdayMthiyane5歲時被人發現后,直到成人都一直保持著猴子的行為跳躍和走路都是四腳著地,不會說人話,并且拒絕吃煮過的食物。至少在形成期跟人類有過部分接觸的野孩子往往運氣好點,可以接受再教育,盡管罕有逐步發展成心智健全人的情況。