訂閱
糾錯
加入自媒體

人類是否能造出有道德的機器人

2018年12月18日,歐盟人工智能高級別專家組發(fā)布了一份人工智能道德準則草案。在許多人擔憂人工智能取代人類、破壞倫理的大背景下,該草案旨在指導人們制造一種“可信賴的人工智能”。如何才能讓機器人更令人信賴?可否賦予它們道德修養(yǎng)呢?就此話題,作者采訪了美國匹茲堡大學科學哲學和科學史系杰出教授、西安交通大學長江講座教授科林·艾倫。

問:什么是人工智能的“道德”?

艾倫:人工智能的“道德”,或者說“道德機器”“機器道德”,有很多不同的含義。我將這些含義歸為3種。第一種含義中,機器應具有與人類完全相同的道德能力。第二種含義中,機器不用完全具備人類的能力,但它們對道德相關的事實應該具有敏感性,并且能依據(jù)事實進行自主決策。第三種含義則是說,機器設計者會在最低層面上考慮機器的道德,但是并沒有賦予機器人關注道德事實并做出決策的能力。

就目前而言,第一種含義所設想的機器仍是一個科學幻想。所以,我在《道德機器》一書中略過了對它的探討,而更有興趣探討那些介乎第二、第三種意義之間的機器。當下,我們希望設計者在設計機器人時能夠考慮道德因素。這是因為,在沒有人類直接監(jiān)督的情況下,機器人可能將在公共領域承擔越來越多的工作。這是我們第一次創(chuàng)造可以無監(jiān)督地運行的機器,這也是人工智能倫理問題與以往一些科技倫理問題之間最本質(zhì)的區(qū)別。在這樣的“無監(jiān)督”情境中,我們希望機器能夠做出更道德的決策,希望對機器的設計不僅僅要著眼于安全性,更要關注人類在乎的價值問題。

問:如何讓人工智能具有道德?

艾倫:首先要說的是,人類自己還不是完全道德的,將一個人培養(yǎng)成有道德的人可不是一件容易的事。人類的本質(zhì)都是出于利己主義做事,而不考慮他人的需求和利益。然而,一個道德的智能體必須學會克制自己的欲望以方便他人。我們現(xiàn)在構建的機器人,其實并不具有自己的欲望,也沒有自己的動機,因為它們沒有自私的利益。所以,訓練人工智能和訓練人的道德是有很大差異的。對機器的訓練問題在于,我們怎樣才能賦予機器一種能力,讓它敏感地察覺到哪些對人類的道德價值觀而言是重要的事情。此外,機器需要認識到它的行為會對人類造成痛苦嗎?我認為是需要的。我們可以考慮通過編程,使機器按照這種方式行事,且無需考慮怎么讓機器人優(yōu)先考慮他者利益,畢竟目前的機器還不擁有利己的本能。

問:發(fā)展人工智能的道德應采用怎樣的模式?

艾倫:我們曾在《道德機器》中討論了機器道德發(fā)展模式,認為“自上而下”和“自下而上”相混合的模式是最佳答案。首先談一談“自上而下”和“自下而上”意味著什么。我們以兩種不同的方式使用這兩個術語。一個是工程的視角,也就是一些技術和計算機科學的視角,例如機器學習和人工進化,而另一個則是倫理學視角。機器學習和人工進化并不從任何原則開始,它們只是試圖使機器符合特定類型的行為描述,并且在給定輸入使機器以這種方式行事時,它的行為能夠符合特定類型,這叫“自下而上”。與之相比,“自上而下”的方法則意味著一個清晰的、將規(guī)則賦予決策過程的模式,并且試圖寫出規(guī)則來指導機器學習。我們可以說,在工程領域中,“自下向上”是從數(shù)據(jù)當中學習經(jīng)驗,而“自上向下”則是用確定的規(guī)則進行預編程。

聲明: 本文系OFweek根據(jù)授權轉載自其它媒體或授權刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內(nèi)容、版權以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號