對話普利策獎獲得者DouglasHofstadter:別被當(dāng)下人工智能假象騙了
如今的人工智能還只是初步階段,只能做到盡可能接近地模仿人類智能,卻始終超越不了。關(guān)于人工智能領(lǐng)域的討論可能最終會回歸到DouglasHofstadter的論點上。自從他在1979年出版的著作《智慧》獲得普利策小說獎以來,他一直在默默地研究有關(guān)思考的問題,以及如何讓計算機(jī)來實現(xiàn)這一目標(biāo)。
在20世紀(jì)50年代和60年代人工智能研究的早期階段,我們的目標(biāo)是創(chuàng)造出能夠模擬人類思考和行為方式的計算機(jī),重塑我們對周圍世界的直觀理解能力。但事實證明,對于20世紀(jì)50年代的計算機(jī)程序來說,思考這一行為要復(fù)雜得多。研究結(jié)果是令人失望的。
不過,最終人們放棄了讓計算機(jī)思考,轉(zhuǎn)而專注于令它完成非常具體的任務(wù),并向它們提供了大量的相關(guān)數(shù)據(jù),這導(dǎo)致了我們今天看到的人工智能熱潮。計算機(jī)可以在國際象棋中擊敗人類,然而它們不是通過優(yōu)雅地下一步棋來獲得滿足感,而是在此前的數(shù)百萬場比賽中篩選,看哪一步棋更有可能幫助獲得勝利。
不過,在2017年,人工智能可能需要解決一個老生常談的問題:教會計算機(jī)如何變得更人性化。人工智能先驅(qū)人物GeoffreyHinton最近對Axios說,他對一些方法深表懷疑,比如使用一堆象棋比賽數(shù)據(jù)來教會它們下象棋。相反,計算機(jī)應(yīng)該能夠不依靠數(shù)百萬個特定的數(shù)據(jù)點來自主學(xué)習(xí),就像人類一樣。
在人工智能的所有這些變化中,印第安納大學(xué)的認(rèn)知科學(xué)和比較文學(xué)教授Hofstadter,則一直在試圖理解思維是如何運作的。他不相信我們現(xiàn)在擁有的人工智能是真正智能的,他擔(dān)心這個領(lǐng)域已經(jīng)把人類帶到了危險的道路上。外媒與Hofstadter先生(以下簡稱DH)就人工智能的現(xiàn)狀、其中出現(xiàn)的錯誤、以及未來的危險等進(jìn)行了討論。
人工智能的現(xiàn)狀:人工智能還是人工智障?
問:讓我們來談?wù)動嬎銠C(jī)是如何理解語言的。要想有效地將一種語言翻譯成另一種語言,機(jī)器就必須對這個世界有深刻的理解,不是嗎?
DH:我所理解的翻譯是用第二語言創(chuàng)造一個文本,讓它和原文一樣好。因此,如果用源語言寫作的原文文字很美很有藝術(shù)感,那么第二語言的文本也應(yīng)如此。這已經(jīng)超出了谷歌翻譯的范疇。
谷歌翻譯的主體不具有理解力。它在各種意想不到的地方都容易出現(xiàn)理解上的偏差。德語中有一句話翻譯成英語是:女傭端來了湯。當(dāng)我仔細(xì)研究這個句子時,發(fā)現(xiàn)谷歌翻譯的說法是:女傭進(jìn)了湯。它翻譯的女仆是正確的,但谷歌翻譯這句話中描繪的形象和動作并不具有現(xiàn)實性。
我并不是要侮辱谷歌翻譯。我想說的是,你要記住,庫卡機(jī)器人何服電機(jī)維修,電腦所使用的詞語并沒有賦予它意義。
問:這就是你所說的Eliza效應(yīng)(Elizaeffect)嗎?
DH:Eliza效應(yīng)指的是,我們使用單詞或短語時認(rèn)為它是有意義的。也就是說,當(dāng)另一個實體在使用詞語并將其輸入到屏幕上或說出來時,我們傾向于認(rèn)為其背后有思考的行為。這可能是極其錯誤的。
人工智能真的能完全取代人類嗎?
問:你認(rèn)為計算機(jī)在沒有這種思維的情況下,可以翻譯得像人類作品一樣充滿文學(xué)性和優(yōu)雅嗎?
DH:我不這么認(rèn)為。我真的不這么想。因為我覺得這個世界太復(fù)雜了。
問:我們需要創(chuàng)造更多術(shù)語來描述人工智能的行為嗎,以便進(jìn)一步說明它并不是什么恰當(dāng)?shù)闹悄鼙憩F(xiàn)形式?
DH:這是個有趣的問題。我認(rèn)為我們今天擁有的并不算是智能。我要回過頭去談一談我比較熟悉的東西,那是幾年前的事了,也就是自動駕駛汽車。
這件事發(fā)生在我身上,所以它是一個真實的情況。當(dāng)時我從印第安納州的布盧明頓市開車到芝加哥來做演講。一兩個小時后,我在高速公路上遇到了一場非常嚴(yán)重的交通堵塞。我離芝加哥還很遠(yuǎn),而高速公路已經(jīng)完全走不動了。那么我要做什么決定呢?我看到有些人正試圖駕車穿過南北交通路段之間的草地,我以為他們會在高速公路上往南走,KUKA機(jī)器人示教器維修,然后可能下車,走一些更小的路。這是有可能的,但后來我發(fā)現(xiàn)有些車被困在了泥濘的草地上。所以我就想:我要去冒這個險嗎?
假設(shè)我在那等了一段時間,最后又回到了高速公路上。但當(dāng)時我壓力真的很大,要趕去芝加哥。我已經(jīng)浪費了一個小時,幾乎沒有時間了。現(xiàn)在我該怎么辦?我要承擔(dān)多大的風(fēng)險?對我來說,去這所大學(xué)發(fā)表這堂課對我來說有多重要?如果我打電話說我要遲到半個小時會怎么樣?晚了一個小時?所以我開車時思考著,我要不要在限速70英里每小時的區(qū)域開到80邁?或者90?我要開多快?
對我來說,這些思考是駕駛的一部分。這才是開車。它表明,現(xiàn)實世界的因素在許多方面可以影響到駕駛。
真實世界并不像象棋或圍棋那樣有一個方方正正的框。有些情景是毫無邊界的,你不知道這個狀況下會發(fā)生什么,也不知道此狀況外又會發(fā)生什么。
距離真的人工智能還有多遠(yuǎn)?只可模仿不可超越!
問:人們會認(rèn)為機(jī)器智能是在思考,這一點有困擾到你嗎?
DH:如果你問我,原則上一個計算機(jī)硬件是否有可能做一些類似思考的行為,我會說絕對是有可能的。計算機(jī)硬件可以做任何大腦能做的事情,但我不認(rèn)為目前階段是這樣的情況。我們只是在模擬人類思考的皮毛,而很多人卻在為這種錯覺而雀躍不已。有時這些機(jī)器的表現(xiàn)是驚人的。
當(dāng)我剛接觸這個領(lǐng)域的時候,我有這樣的感覺:創(chuàng)造出那些看起來似乎會思考的程序是很有趣的,即使它們只會做一些非常有限的思考,卻給你一種接近自然人思維的錯覺,這一點很有意思。越微妙,就越好。
機(jī)器是在慢慢改善的,這個態(tài)度讓我感到很贊同。這讓我覺得人類才是終極目標(biāo),人類智慧是一件了不起的事情。換句話說,我的感覺是,計算機(jī)智能將會經(jīng)歷一段緩慢漸進(jìn)的過程來實現(xiàn)人類智能。漸近的意思是它會逐漸接近它,工業(yè)機(jī)器人維修,但并不會超越它。就像曲線接近直線一樣。它會無限接近直線,但是始終是曲線。
但到最近,隨著AlphaGo和DeepBlue的各種勝利,人們開始懷疑這兩條線是否會出現(xiàn)交叉。人們認(rèn)為它們在接近,然后相交,并沒有漸近線。它相交了,然后計算機(jī)那條線繼續(xù)上升。這和我的想法不同,我不太喜歡這個結(jié)果。
人類的思維被淹沒在塵埃中這一點令我害怕。不是被計算機(jī)輔助或教唆,而是被完全壓倒,人類在計算機(jī)面前就像是曾經(jīng)出現(xiàn)在我們面前的蟑螂或跳蚤弱小不堪,如果真到了那一天,那就太可怕了。