五月婷婷欧美视频_少女频道在线观看高清_欧美日韩视频一区二区三区_7777精品伊久久久大香线蕉语言

首頁 > 機器人資訊 > 人類能造出有道德的機器人嗎?

人類能造出有道德的機器人嗎?

日期:2020-06-18   人氣:  來源:互聯網
簡介:2019年12月18日,歐盟人工智能高級別專家組發布了一份人工智能道德準則草案。在許多人擔憂人工智能取代人類、破壞倫理的大背景下,該草案旨在指導人們制造一種可信賴的人工智能。如何才能讓 機器人 更令人信賴?可否賦予它們道德修養呢?就此話題,作者采……

  2019年12月18日,歐盟人工智能高級別專家組發布了一份人工智能道德準則草案。在許多人擔憂人工智能取代人類、破壞倫理的大背景下,該草案旨在指導人們制造一種“可信賴的人工智能”。如何才能讓機器人更令人信賴?可否賦予它們道德修養呢?就此話題,作者采訪了美國匹茲堡大學科學哲學和科學史系杰出教授、西安交通大學長江講座教授科林·艾倫。


  問:什么是人工智能的“道德”?

 

  艾倫:人工智能的“道德”,或者說“道德機器”“機器道德”,工業機器人維修,有很多不同的含義。我將這些含義歸為3種。第一種含義中,機器應具有與人類完全相同的道德能力。第二種含義中,機器不用完全具備人類的能力,但它們對道德相關的事實應該具有敏感性,并且能依據事實進行自主決策。第三種含義則是說,機器設計者會在最低層面上考慮機器的道德,但是并沒有賦予機器人關注道德事實并做出決策的能力。

 

  就目前而言,第一種含義所設想的機器仍是一個科學幻想。所以,我在《道德機器》一書中略過了對它的探討,而更有興趣探討那些介乎第二、第三種意義之間的機器。當下,我們希望設計者在設計機器人時能夠考慮道德因素。這是因為,在沒有人類直接監督的情況下,機器人可能將在公共領域承擔越來越多的工作。這是我們第一次創造可以無監督地運行的機器,這也是人工智能倫理問題與以往一些科技倫理問題之間最本質的區別。在這樣的“無監督”情境中,我們希望機器能夠做出更道德的決策,希望對機器的設計不僅僅要著眼于安全性,更要關注人類在乎的價值問題。


  問:如何讓人工智能具有道德?

 

  艾倫:首先要說的是,人類自己還不是完全道德的,將一個人培養成有道德的人可不是一件容易的事。人類的本質都是出于利己主義做事,而不考慮他人的需求和利益。然而,一個道德的智能體必須學會克制自己的欲望以方便他人。我們現在構建的機器人,其實并不具有自己的欲望,也沒有自己的動機,因為它們沒有自私的利益。所以,訓練人工智能和訓練人的道德是有很大差異的。對機器的訓練問題在于,我們怎樣才能賦予機器一種能力,讓它敏感地察覺到哪些對人類的道德價值觀而言是重要的事情。此外,機器需要認識到它的行為會對人類造成痛苦嗎?我認為是需要的。我們可以考慮通過編程,使機器按照這種方式行事,且無需考慮怎么讓機器人優先考慮他者利益,畢竟目前的機器還不擁有利己的本能。

 

  問:發展人工智能的道德應采用怎樣的模式?

 

  艾倫:我們曾在《道德機器》中討論了機器道德發展模式,認為“自上而下”和“自下而上”相混合的模式是最佳答案。首先談一談“自上而下”和“自下而上”意味著什么。我們以兩種不同的方式使用這兩個術語。一個是工程的視角,也就是一些技術和計算機科學的視角,機器人維修,例如機器學習和人工進化,而另一個則是倫理學視角。機器學習和人工進化并不從任何原則開始,庫卡機器人驅動器維修,它們只是試圖使機器符合特定類型的行為描述,并且在給定輸入使機器以這種方式行事時,它的行為能夠符合特定類型,這叫“自下而上”。與之相比,“自上而下”的方法則意味著一個清晰的、將規則賦予決策過程的模式,并且試圖寫出規則來指導機器學習。我們可以說,在工程領域中,“自下向上”是從數據當中學習經驗,而“自上向下”則是用確定的規則進行預編程。

 

  在一些倫理學領域也有這種“上下之別”,比如康德,還有更早的功利主義學派,如邊沁和密爾,他們就更像是“自上而下”。這些學者試圖制定規則以及普遍原則,以便通過這些“條條框框”判斷出一個行為是不是道德的。這樣對康德的道德律令而言,其涵義就包含著多項具體規則,例如“不撒謊”。

 

  亞里士多德對于道德持有相當不同的觀點。他認為,道德應當是一個人通過訓練而習得的。因此,亞里士多德的觀點就更傾向于一種“自下向上”的方法,這種方法就是一個人通過練習變得好、善良、勇敢。當踐行道德的時候,我們就稱之為美德倫理。通過這樣做,一個人會變得更具美德、會有更好的行為。

 

  我認為亞里士多德的看法更正確。因為人類并不是靠“瞎碰瞎撞”去養成習慣的,也會對習慣進行思考,并思考需要哪些原則。亞里士多德注意到,在原則灌輸和習慣訓練之間存在著一種相互作用。我們認為,這種途徑同樣也適用于人工道德智能體的構建。在很多實時決策的情境下,我們并沒有足夠的時間來反思行為背后的理論或原則含義。但是,我們還可以從錯誤中學習,因為可以使用這些“自上向下”的原則重新評估我們所做的事情,之后再進行調整和重新訓練。

 

  這就是混合方法的基本思路,我認為它確實符合人類的情形。舉個例子,當你還是個孩童時,你對兄弟姐妹做了什么不好的事情,父母會說“如果這種事情發生在你身上,你會有何感受呢”,是吧?在許多道德傳統中都有這樣一種原則:“以你自己對待自己的方式,或是你希望被別人對待的方式去對待他人”,有時人們也稱這一原則為黃金法則。所以,你不僅僅被告知不要那樣做,也并不僅僅因此而受罰,實際上你會被告知去思考這樣做為何是好的或不好的,這就是“自上而下”與“自下而上”的結合。

 

  問:應該限制人工智能的發展嗎?

 

  艾倫:我認為這取決于應用領域。我現在并不擔心機器人或人工智能會取代人類,如果情況變得危險,我們是有能力去阻止它的。比如說突然發現機器人可以生產機器人,我們要做的無非就是切斷電源。

 

  當然,確實存在一些應當停止人工智能應用的地方,其中一個就是人們正致力開發的軍事領域。從人類的歷史來看,一旦有人構想出一個武器,那將很難阻止另一些人的欲望及其為之奮斗的野心。核武器和無人機就是很好的例子。

 

  但是,我不認為應該阻止其他形式的人工智能發展。我們需要思考技術對生活帶來了怎樣的后果,比如說,自動駕駛汽車會使行人過馬路更困難,還是更加容易呢?自動駕駛汽車面臨行人過馬路的情形時應附加什么樣的權限呢?無人車看到行人能不能安全停下,還是說它像人類司機一樣,依然有可能撞到行人?這些都是我們需要對人工智能進行思考的問題。無人駕駛汽車不僅不該停止發展,而是應該投入更多。

 

  問:機器人會變得更好還是更危險?

 

免責聲明:本網部分文章和信息來源于互聯網,本網轉載出于傳遞更多信息和學習之目的。如轉載稿涉及版權等問題,請立即聯系網站所有人,我們會予以更改或刪除相關文章,保證您的權利。
主站蜘蛛池模板: 武邑县| 开远市| 娄底市| 绥德县| 容城县| 长垣县| 城市| 商丘市| 阿勒泰市| 盐津县| 宜良县| 潜山县| 伊金霍洛旗| 余姚市| 山阴县| 茶陵县| 南投市| 武功县| 富顺县| 时尚| 金山区| 秭归县| 迁安市| 德阳市| 麟游县| 扶余县| 理塘县| 古蔺县| 滁州市| 游戏| 奉新县| 双桥区| 江西省| 嘉禾县| 申扎县| 邹城市| 舟山市| 榆中县| 漾濞| 樟树市| 丰县|