上期平码开什么|专业平码计算

資訊

INFORMATION

您現在的位置::首頁 > 資訊管理 > > 原創新聞

人類能造出有道德的機器人嗎?

來源: 網站管理員
2019/01/22 09:48:27 已瀏覽:

2018年12月18日,歐盟人工智能高級別組發布了一份人工智能道德準則草案。在許多人擔憂人工智能取代人類、破壞倫理的大背景下,該草案旨在指導人們制造一種“可信賴的人工智能”。如何才能讓機器人更令人信賴?可否賦予它們道德修養呢?就此話題,作者采訪了美國匹茲堡大學科學哲學和科學史系杰出教授、西安交通大學長江講座教授科林·艾倫。



 問:什么是人工智能的“道德”?

  艾倫:人工智能的“道德”,或者說“道德機器”“機器道德”,有很多不同的含義。我將這些含義歸為3種。種含義中,機器應具有與人類完全相同的道德能力。第二種含義中,機器不用完全具備人類的能力,但它們對道德相關的事實應該具有敏感性,并且能依據事實進行自主決策。第三種含義則是說,機器設計者會在低層面上考慮機器的道德,但是并沒有賦予機器人關注道德事實并做出決策的能力。

  就目前而言,種含義所設想的機器仍是一個科學幻想。所以,我在《道德機器》一書中略過了對它的探討,而更有興趣探討那些介乎第二、第三種意義之間的機器。當下,我們希望設計者在設計機器人時能夠考慮道德因素。這是因為,在沒有人類直接監督的情況下,機器人可能將在公共領域承擔越來越多的工作。這是我們次創造可以無監督地運行的機器,這也是人工智能倫理問題與以往一些科技倫理問題之間本質的區別。在這樣的“無監督”情境中,我們希望機器能夠做出更道德的決策,希望對機器的設計不僅僅要著眼于安全性,更要關注人類在乎的價值問題。

  問:如何讓人工智能具有道德?

  艾倫:首先要說的是,人類自己還不是完全道德的,將一個人培養成有道德的人可不是一件容易的事。人類的本質都是出于利己主義做事,而不考慮他人的需求和利益。然而,一個道德的智能體必須學會克制自己的欲望以方便他人。我們現在構建的機器人,其實并不具有自己的欲望,也沒有自己的動機,因為它們沒有自私的利益。所以,訓練人工智能和訓練人的道德是有很大差異的。對機器的訓練問題在于,我們怎樣才能賦予機器一種能力,讓它敏感地察覺到哪些對人類的道德價值觀而言是重要的事情。此外,機器需要認識到它的行為會對人類造成痛苦嗎?我認為是需要的。我們可以考慮通過編程,使機器按照這種方式行事,且無需考慮怎么讓機器人優先考慮他者利益,畢竟目前的機器還不擁有利己的本能。

  問:發展人工智能的道德應采用怎樣的模式?

  艾倫:我們曾在《道德機器》中討論了機器道德發展模式,認為“自上而下”和“自下而上”相混合的模式是答案。首先談一談“自上而下”和“自下而上”意味著什么。我們以兩種不同的方式使用這兩個術語。一個是工程的視角,也就是一些技術和計算機科學的視角,例如機器學習和人工進化,而另一個則是倫理學視角。機器學習和人工進化并不從任何原則開始,它們只是試圖使機器符合特定類型的行為描述,并且在給定輸入使機器以這種方式行事時,它的行為能夠符合特定類型,這叫“自下而上”。與之相比,“自上而下”的方法則意味著一個清晰的、將規則賦予決策過程的模式,并且試圖寫出規則來指導機器學習。我們可以說,在工程領域中,“自下向上”是從數據當中學習經驗,而“自上向下”則是用確定的規則進行預編程。

  在一些倫理學領域也有這種“上下之別”,比如康德,還有更早的功利主義學派,如邊沁和密爾,他們就更像是“自上而下”。這些學者試圖制定規則以及普遍原則,以便通過這些“條條框框”判斷出一個行為是不是道德的。這樣對康德的道德律令而言,其涵義就包含著多項具體規則,例如“不撒謊”。

  亞里士多德對于道德持有相當不同的觀點。他認為,道德應當是一個人通過訓練而習得的。因此,亞里士多德的觀點就更傾向于一種“自下向上”的方法,這種方法就是一個人通過練習變得好、善良、勇敢。當踐行道德的時候,我們就稱之為美德倫理。通過這樣做,一個人會變得更具美德、會有更好的行為。

  我認為亞里士多德的看法更正確。因為人類并不是靠“瞎碰瞎撞”去養成習慣的,也會對習慣進行思考,并思考需要哪些原則。亞里士多德注意到,在原則灌輸和習慣訓練之間存在著一種相互作用。我們認為,這種途徑同樣也適用于人工道德智能體的構建。在很多實時決策的情境下,我們并沒有足夠的時間來反思行為背后的理論或原則含義。但是,我們還可以從錯誤中學習,因為可以使用這些“自上向下”的原則重新評估我們所做的事情,之后再進行調整和重新訓練。

  這就是混合方法的基本思路,我認為它確實符合人類的情形。舉個例子,當你還是個孩童時,你對兄弟姐妹做了什么不好的事情,父母會說“如果這種事情發生在你身上,你會有何感受呢”,是吧?在許多道德傳統中都有這樣一種原則:“以你自己對待自己的方式,或是你希望被別人對待的方式去對待他人”,有時人們也稱這一原則為黃金法則。所以,你不僅僅被告知不要那樣做,也并不僅僅因此而受罰,實際上你會被告知去思考這樣做為何是好的或不好的,這就是“自上而下”與“自下而上”的結合。

  問:應該限制人工智能的發展嗎?

  艾倫:我認為這取決于應用領域。我現在并不擔心機器人或人工智能會取代人類,如果情況變得危險,我們是有能力去阻止它的。比如說突然發現機器人可以生產機器人,我們要做的無非就是切斷電源。

  當然,確實存在一些應當停止人工智能應用的地方,其中一個就是人們正致力開發的軍事領域。從人類的歷史來看,一旦有人構想出一個武器,那將很難阻止另一些人的欲望及其為之奮斗的野心。核武器和無人機就是很好的例子。

  但是,我不認為應該阻止其他形式的人工智能發展。我們需要思考技術對生活帶來了怎樣的后果,比如說,自動駕駛汽車會使行人過馬路更困難,還是更加容易呢?自動駕駛汽車面臨行人過馬路的情形時應附加什么樣的權限呢?無人車看到行人能不能安全停下,還是說它像人類司機一樣,依然有可能撞到行人?這些都是我們需要對人工智能進行思考的問題。無人駕駛汽車不僅不該停止發展,而是應該投入更多。

  問:機器人會變得更好還是更危險?

  艾倫:過去10年來,人工智能在某些方面的飛速發展令人吃驚,但算不上滿意。在我看來,未來10年內無人駕駛汽車投放到真實路況中的可能性不大。蘋果公司推出了一個可以交談的智能體Siri,但以現在的情形來看,Siri很糟糕不是嗎?所有我使用過的類似產品,諸如Alexa,Google Talk,都不盡人意。所以我現在不會從倫理的視角對人工智能的發展過于擔心。這些企業居然真的發布了這些產品,但更令我驚奇的是,人們居然在很大程度上調整自身行為以適應人工智能,因為你知道把Siri當成正常人來交談的話,它永遠不會明白你的意思。人類在做出調整,并非機器,因為機器并不是一個自適應的系統。或者說,它比人類具有更弱的適應性。這是令我擔心的。

  當然,我所擔心的并不是機器做的事情超出人類的預想,而是它們可能改變并限制我們的行為。AlphaGo贏了圍棋,但并未改變我們的日常生活,所以沒什么好擔心的。我擔心人們用愚笨的方式與機器交談,以便機器按照我們的想法做事。要知道,這具有許多潛在的危險。它潛移默化改變我們的習慣行為,使我們對某些類型的錯誤更具容忍性而對有些錯誤卻更加苛刻。人們會預料到并且能容忍人類所犯的道德錯誤,但是,人類可能不會容忍這樣的錯誤在機器上發生。經過規劃考慮后仍對他人造成傷害的決定如果發生在機器上,會比發生在人類身上更不能令人容忍。在過去10年內,這種改變已經發生了。即使軟件會變得更好,機器也會變得更好,但是永遠都存在著讓人類去適應機器而非真正提高人類能力的危險。



您認為該新聞

很好,強力推薦給其他網友

還行,值得推薦

一般,不值得推薦

較差,根本不用看

網友推薦新聞:

  • 關注本網官方微信公眾號 隨時閱讀專業資訊

  • 征稿郵箱:[email protected]

版權與免責聲明

  • 凡本網注明“來源:儀器儀表交易網”的所有作品,均為儀器儀表交易網合法擁有版權或有權使用的作品,未經本網授權不得轉載、摘編或利用其它方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:儀器儀表交易網”。違反上述聲明者,本網將追究其相關法律責任。
  • 本網轉載并注明自其它來源(非儀器儀表交易網)的作品,目的在于傳遞更多信息,并不代表本網贊同其觀點或和對其真實性負責,不承擔此類作品侵權行為的直接責任及連帶責任。其他媒體、網站或個人從本網轉載時,必須保留本網注明的作品第一來源,并自負版權等法律責任。
  • 如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。

推薦資訊

首頁 | 關于我們 | 聯系我們 | 免責條款 | 友情鏈接 | 廣告服務 | 會員服務 | 付款方式

上期平码开什么 飞艇三码计划 倍投方案图片 全民彩彩票官网 时时彩稳赚不亏的注码法 11选五计划软件选五中五 大乐透电子走势图 彩票计划软件app下载安装 天津时时的官网开奖结果 pk拾开奖直播稳赚计划完整 一分快三免费稳定计划下载