被人工智能機器人的謊話耍了,該找誰算賬?
壞小子興許還會招女孩子的喜歡。但是人工智能學壞了,會怎么樣呢?
大家都在討論,人工智能會不會控制人類,會取代多少工種,有可能還會讓包括你我在內的一大票人丟掉工作。但是這些都是大命題,現在雖然很多人都在討論,但是好像這一天的到來還有點遠。至少明天,不會一大早起來,你的公司都被人工智能占據了。
張愛玲說過一句話:人生是一襲華麗的袍子,里面爬滿了虱子。上面那些大的悲劇可能性已經說的夠多了。我們今天來看看,人工智能可能帶進來的一只虱子。或許不那么讓人崩潰,工業機器人維修,但是可能讓你很惡心,像吃了一個蒼蠅一樣。
挑選餐館、酒店的時候,我們都會去大眾點評之類的網站看下評論怎么樣。因此呢,這些公司甚至一家小店都會很看重用戶的評論。這些企業需要堤防著虛假惡意的評論,友商們收買的水軍,以及哪天不小心因為各種原因惹惱的一個客戶,KUKA機器人示教器維修,請求他撤下差評。
萌萌的外表,無辜的眼神,看起來不會騙人的樣子
這些事情,人工智能要來干會怎么樣呢?人工智能像瘋了一樣寫負面評論,往你的身上潑臟水。你都來不及換件衣服迎接新一波的臟水。
想象一下,似乎這是件并不困難的事情。人工智能的潘多拉魔盒撬開后,公司的公關部打了個盹兒,滿世界都是你的負面評論了。那樣的話,睡著覺都得開個天眼,看看這個世界有沒有詆毀的洪水撲面而來。
上面當然是商家要面臨的煩惱,那么從客戶的角度看呢?
今天,我們看評論區的時候,都會有選擇地去看。笨拙如我,有時候也會碰到一些高人指點,什么評論是可信的,什么是假的。假如人工智能再來插一杠子,把水攪得更混,網絡上本就脆弱的信任是不是要慢慢蒸發了,蕩然無存或者聊勝于無。
據BI報道,芝加哥大學的研究人員寫了一篇論文,介紹了人工智能如何開發復雜的評論,不僅現代檢測工具檢測不到,也能成功騙過不知情的讀者。
舉個例子,這是一段評論:Ilovethisplace.Iwentwithmybrotherandwehadthevegetarianpastaanditwasdelicious.Thebeerwasgoodandtheservicewasamazing.Iwoulddefinitelyrecommendthisplacetoanyonelookingforagreatplacetogoforagreatbreakfastandasmallspotwithagreatdeal.(我愛這個地方。我和哥哥一塊去的,我們一起吃了素食意大利面,味道很好。啤酒很好,服務也讓人很舒心。如果你想去個不錯的地方,有著豐盛的早餐,我會推薦你去這里。/最后半句有語病,不譯。)
審查起來也沒什么毛病。雖然最后半句有些奇怪,但是我們平時看到的評論區里,也常常是錯字不斷、語句不通,所以這不算什么大的問題。總的來看,它看起來就像一個正常人說的話。
事實上,這條評論是由一種叫遞歸神經網絡(recurrentneuralnetworks)的深度學習技術炮制出來的。
就問你怕不怕?
不光是長得像真的,工業機器人維修,研究者還寫道,這些評論對真正的交易來說也是有效的。也就說是說,不僅表面看起來能騙得過真實用戶的眼睛,而且能讓用戶覺得像真實評論那么有用,覺得這一條走心的平價。實際上這只是人工智能走芯的平價而已。
想象一下,有一天,你打開某個點評網站,被一堆謊話連篇的評論洗了腦,然后屁顛屁顛地,去了一家讓人倒胃的飯店吃了頓大餐,到一個荒涼透頂的景區領略下美景,回家后氣急敗壞,一通懷疑自己你是不是傻?人工智能的機器人要是看到了,說不定都樂開花了。哦,對了,未來的機器人說不定真的會像人一樣,笑得那么燦爛。
如果人工智能可以這么無恥切不受控制的話,那么大眾點評等網站的評論參考價值就會大打折扣。亞馬遜、阿里這樣的電商也會受到一些連累,不過好在他們還可以檢查評論客戶是不是真的買東西了。
研究人員想到一個辦法去克服這種情況。
假評論雖然看起來像是真的,但是依然有著細微的差別。計算機程序可以檢測出來這種差別,如果它可以測算描述中涉及到一些字符的分布規律。假評論為了以假亂真,會看重流暢度和可信度,因此一些較為細微的特征,就像字符的分部規律可能就會被忽略掉。
研究者寫道:訓練中產生的信息損失,會在最終呈現的文本中顯示出來。這樣就會導致機器產生的文本與人類的文本上,在潛在的字符分別規律上,產生統計學意義上的差別。
芝加哥大學計算機科學教授BenY.Zhao
聽起來是不是有點繞?不過呢,這也不是萬全之策。芝加哥大學計算機科學教授BenY.Zhao表示,它可以讓很多虛假評論更不容易過審,但是更昂貴的計算機和更強大的神經網絡,就可以繞開這種檢測。
道高一尺魔高一丈,想作弊有的是辦法。你不能阻止那些信心堅決、又有實力的攻擊者。Zhao表示。
不過好在,Zhao表示,現實世界中還沒有看到任何用人工智能聲稱惡意評論的例子。
其實,不光是在線評論,未來說不定,整個博客都會說一個機器自動生成的,讓人真假難辨。再廣泛一點,機器又會炮制怎樣的假新聞,操縱輿論或者愚弄公眾?被耍了一通之后,發現元兇是一個機器人,這又該讓誰去負責,在案件中也好,也普通的事故中也罷。還有,人工智能充當主力的信息戰爭又會是怎樣一個糟心樣子呢?
Zhao希望提醒人們注意到這種威脅,也希望Yelp這類的點評網站和亞馬遜這樣的公司開始考慮怎么防御。
從科技倫理上說,我們確實有被技術奴役的風險。不過,作為了一個樂觀主義者,我相信人類整體可以駕馭技術,作為生命個體,勤奮上進又取法得當的話,也可以更多地享受人工智能的便利,要超過人工智能的威脅和壓迫。
不過,即便是利大于弊的技術,也總會來帶一些蚊蟲叮咬式的煩惱。說不定,未來被人工智能耍著玩,并不是什么稀罕的事情,就跟現在時不常接到的電話一樣隨處可見。