五月婷婷欧美视频_少女频道在线观看高清_欧美日韩视频一区二区三区_7777精品伊久久久大香线蕉语言

首頁 > 機器人資訊 > 謝田:無人駕駛車的利他主義原則(中)

謝田:無人駕駛車的利他主義原則(中)

日期:2019-04-10   人氣:  來源:互聯網
簡介:謝田:無人駕駛車的利他主義原則(中) 關于機器人可能會反制人類,機器人可能不受人類的控制,最近已經有了新的、可怕的趨勢。臉書的研究人員發現,人工智能(AI)的程序可以使用一種人不懂而只有計算機(電腦)懂得的語言,進行它們之間的對話。因為這個……

謝田:無人駕駛車的利他主義原則(中)

關于機器人可能會反制人類,庫卡機器人,機器人可能不受人類的控制,最近已經有了新的、可怕的趨勢。臉書的研究人員發現,人工智能(AI)的程序可以使用一種人不懂而只有計算機(電腦)懂得的語言,進行它們之間的對話。因為這個程序創建了自己的語言,所以臉書的科研人員最后關閉了這樣的人工智能(AI)語言程序。他們的研究人員意識到,非常令人可怕的是,人工智能程序產生的新語言不是英語,而是僅能被它自己識別的代碼。這是今年七月被披露的事件。

為此,特斯拉電動汽車創始人馬斯克(ElonMusk)也對人工智能提出了警告。馬斯克對美國的州長們說,需要積極主動地而不是被動地對人工智能進行監管。他甚至擔心,當人們真正需要對人工智能進行監管時,可能就已經太遲了。雖則如此,馬斯克自己的OpenAI實驗室,也成功的讓人工智能機器人開發出了自己的語言。

很多人都很愉快的使用谷歌的機器翻譯功能,并且在實際運用中幫助谷歌完善機器的翻譯效能。但谷歌的翻譯服務團隊發現,他們的人工智能程序可以靜悄悄地編寫自己的機器語言,來幫助翻譯句子。值得人們警惕的是,人類目前根本無法掌握這種機器所使用的新語言的邏輯性!當谷歌的翻譯變得日益廣泛運用,當世界各地操不同語言的人們、甚至國際會議,都使用谷歌翻譯時,那豈不是連人們的思維、溝通、交往,都會被機器人和機器人背后的力量所控制和左右?!

目前,世界各國的主要汽車廠商對自駕車的〝自主程度〞有不同的處理方法和態度。大眾集團(VolkswagenGroup)旗下品牌奧迪(Audi)發布了一款可上路行駛的最先進的自動駕駛汽車,允許車主長時間不看道路的系統。新款奧迪A8允許駕駛員在交通擁堵、車速不超過每小時60公里時,讓車輛進入自動駕駛狀態,而駕駛員可以完全不管。

奔馳、日產和奧迪等車企,采取對車輛逐步增強〝自主〞程度的態度、在發生緊急情況時把控制權交還給駕駛員。福特和捷豹、路虎比較保守,表示只有當車輛〝自主〞技術能在所有情形下駕駛車輛時,才會給自己的汽車加裝該技術。福特董事長比爾。福特(BillFord)表示,自駕車的技術要求不難實現,但道德和制度層面的問題才是最大的難題。

關于機器人時代的倫理,美國科幻作家阿西莫夫早就給出了三條法則。阿西莫夫在1950年出版的短篇小說集《我,機器人》中提出〝機器人學三大法則〞,被稱為是機器人的〝摩西十誡〞。法則第一條是:機器人不得傷害人類,或因不作為而使人類受到傷害;第二條:除非違背第一法則,機器人必須服從人類的命令;第三條:在不違背第一及第二法則的情況下,機器人必須保護自己。后來,阿西莫夫又補充了第零條法則:機器人不得傷害人類整體,或因不作為使人類整體受到傷害。

但機器人學的三大法則,也難以真正的、完全的解決人和機器的關系問題。阿西莫夫的《機器人與帝國》故事中,一名罪犯犯下重罪,必須被處死,但如果機器人在場看見了,機器人要服從第一法則,就不能對人類個體可能死亡而袖手旁觀,它可能就需要去〝劫法場〞救下那個死刑犯,從而干擾了人類社會的秩序。第二法則的〝自保〞和第三法則的〝服從命令〞也有可能發生沖突,KUKA機器人示教器維修,從而使得機器人無所適從。

阿西莫夫的〝第零法則〞,是更高的智慧,涉及人類的整體。但涉及到人類的整體,涉及到人類的前途和命運,這時候機器人插進來,就更可怕。機器人如果看到人類無節制、無限度的盲目發展,導致更多的災難、戰爭和貧窮,如果要遵循〝第零法則〞,機器人就必須選擇用機器人自己〝理性的頭腦〞來支配和保護人類,這樣人類就不會絕種,但人類自己的自由意志,可能就被機器人奪取了。這是人類希望的嗎?我們的世界上,超過85%的人是信神、信佛的,信神信佛的人們相信,人是神佛創造的,如果神造的人就這樣被機器人或者機器人背后的勢力、生命去左右了人類的人生、生命,神佛會允許這樣的事情發生嗎?

在道德層面,一個典型的例子就是,當要發生汽車事故時,自駕車是選擇救駕駛員,還是選擇讓駕駛員受傷而去救10個行人?在解釋人類社會的行為時,有一個〝有軌電車難題〞。

在這個經典的思維實驗中,一輛有軌電車沿著軌道飛馳而來,馬上要撞到五個人。如果你有控制桿可以把電車轉到另一個軌道,從而救下這五個人,但是會犧牲掉另一個軌道上的一個人。這個時刻,你怎么辦?你是〝采取行動但是殺死一個人〞還是〝什么都不做讓五個人死〞?這個選擇的難處,在于它迫使人們在〝不殺生〞的個人道德和〝救更多的人〞的更高的善良之間,進行一番掙扎。

面對〝有軌電車難題〞,大多數人可能會選擇更高的善良,轉向救大多數人,而犧牲一個人。但是,人是有強烈的感情的,如果可能的單個受害人是婦女、兒童、弱者或者自己的親人,庫卡機器人,實驗參與者很有可能讓大多數人犧牲,而救下自己的親人或者一名婦女或兒童。這里,人類做出這種選擇,可能都是非常困難的,那顯而易見,人類不能讓機器去做這個選擇,不能讓機器決定人的生死。所以,我們必須對機器、機器人、自駕車和電腦做出一定的規范。

免責聲明:本網部分文章和信息來源于互聯網,本網轉載出于傳遞更多信息和學習之目的。如轉載稿涉及版權等問題,請立即聯系網站所有人,我們會予以更改或刪除相關文章,保證您的權利。
主站蜘蛛池模板: 浮梁县| 新龙县| 华亭县| 托克逊县| 赫章县| 保山市| 运城市| 日照市| 江永县| 房产| 尼玛县| 集安市| 钟祥市| 仙居县| 万州区| 大姚县| 东平县| 建湖县| 张家港市| 蒙阴县| 阳春市| 大石桥市| 泸定县| 宜兰市| 玛纳斯县| 佛学| 平和县| 如东县| 昌江| 青铜峡市| 石河子市| 枣强县| 宕昌县| 霍林郭勒市| 福泉市| 宁河县| 尼木县| 信丰县| 昌江| 探索| 册亨县|