訂閱
糾錯
加入自媒體

李飛飛論戰(zhàn)赫拉利:AI之戰(zhàn)一旦爆發(fā),將碾壓核競賽

如何避免數(shù)字專政?

Yuval:關(guān)鍵問題就是如何管理數(shù)據(jù)的歸屬權(quán)。因為我們不可能停止生物學(xué)領(lǐng)域的研發(fā),也不能停止研究計算機(jī)科學(xué)和人工智能。所以之前的公式中,最好控制的就是數(shù)據(jù),但這也非常困難。目前雖然已經(jīng)作出了一些舉措,但要控制數(shù)據(jù)這同時涉及哲學(xué)和政治兩個方面。擁有數(shù)據(jù),以及管理數(shù)據(jù)所有權(quán),到底是什么意思?在過去幾千年里,我們已經(jīng)充分理解了,什么是土地?fù)碛袡?quán),但很少了解什么是數(shù)據(jù)擁有權(quán),以及應(yīng)該如何進(jìn)行管理。但這正是我們要解決的問題。

我承認(rèn)AI沒有某些人想的那么強(qiáng)大。但我們必須把握這個度,我們不需要完全了解人類的AI,只需要它比我們更了解自己。這并不困難,因為很多人根本不了解自己,所以經(jīng)常犯下決策錯誤,包括理財和愛情等方面。所以將這些判斷題交給算法,可能仍然很糟糕,但只要比我們做的好一些,那么這種趨勢仍然會存在。

將來可能會出現(xiàn)這種情景,你可以寫出各種的算法幫助你了解自己。但如果這些算法不止把這些信息分享給你,也把它們交給廣告商或者政府會怎樣?我覺得我們不應(yīng)該只思考太遙遠(yuǎn)、太極端的情景,而是更關(guān)注我們生活中的例子。

人工智能存在著機(jī)遇和風(fēng)險,目前最重要的事情是什么?

李飛飛:我們現(xiàn)在有太多的事情可以做,這一點(diǎn)我非常同意Yuval的看法。斯坦福大學(xué)認(rèn)為,未來的人工智能應(yīng)該是以人為本的,我們需要堅持三個主要原則。

第一,要投資具有人類思維特征的人工智能技術(shù)。目前大多數(shù)人工智能都依賴于數(shù)據(jù),以及對數(shù)據(jù)的管理政策,這樣可以控制人工智能帶來的影響。但我們應(yīng)該開發(fā)一種可以解釋人工智能的技術(shù),以及能對人類智力產(chǎn)生更細(xì)微的理解的技術(shù)。同時還要投資那些不太依賴于數(shù)據(jù)的人工智能,它能反應(yīng)人類的直覺、知識和創(chuàng)造性等。

第二,為人工智能的研究設(shè)立更多的準(zhǔn)則。讓經(jīng)濟(jì)、道德、法律、哲學(xué)、歷史和認(rèn)知科學(xué)等多個領(lǐng)域的人參與研究。任何單一領(lǐng)域的研究人員都不能單獨(dú)解決這個問題。

最后,除了上述操作性的建議,我認(rèn)為我們在做這些事情時,我們應(yīng)該抱著警惕和理解,同時又要將這種技術(shù)運(yùn)用到正途。

如果我們自己都不了解自己,那么計算機(jī)可能比我們更容易解釋這些決策嗎?

李飛飛:兩位數(shù)的乘法對我們來說很難,但對計算機(jī)來說很簡單。有些事情人類覺得困難的,未必難得倒機(jī)器。畢竟這些算法都是基于非常簡單的數(shù)學(xué)邏輯。對此我們采用了包含數(shù)百萬個節(jié)點(diǎn)的神經(jīng)網(wǎng)絡(luò)。誠然,決策的解釋很困難,但相關(guān)研究已經(jīng)在進(jìn)行,一旦成功它將會帶來突破性的進(jìn)展。而且有了這種技術(shù),人們就很難用人工智能去作弊。

Yuval:但是人工智能的決策邏輯可能和人類完全不同,哪怕它解釋了,我們恐怕也無法理解。例如申請銀行貸款被拒,人工智能可能會告訴你,這些數(shù)據(jù)有數(shù)萬個來源,同時進(jìn)行了加權(quán)和統(tǒng)計分析,某些數(shù)據(jù)的權(quán)重為什么是這么多……這完全可以寫一本書。

科學(xué)越來越難向公眾解釋很多理論和發(fā)現(xiàn),這也是為什么很多人對氣候變化持懷疑態(tài)度。這不是科學(xué)家的錯,而是科學(xué)技術(shù)越來越復(fù)雜,而人類社會更復(fù)雜。人類的思維無法理解它,正如它無法理解為什么要拒絕一個人的貸款申請。

我們應(yīng)該如何確保數(shù)據(jù)沒有種族傾向?

李飛飛:說實話我個人也回答不上這個問題,但機(jī)器學(xué)習(xí)系統(tǒng)存在偏見已經(jīng)是個既定的事實。但這種偏見的成因非常復(fù)雜。斯坦福大學(xué)有人專門研究這個問題,如何去除數(shù)據(jù)的偏見,讓決策更加中立,同時也有人類學(xué)家在談?wù)撌裁词瞧,什么是公平。什么情況下的偏見是好的,什么情況下是壞的。之前就有研究通過臉部識別算法發(fā)現(xiàn)好萊塢女演員的出鏡率更低。

Yuval:至于是否應(yīng)該剔除數(shù)據(jù)中的種族特征或是性別特征,還需要具體分析。這也是一個需要工程師和倫理學(xué)家、心理學(xué)家以及政治科學(xué)家合作的地方。將來還可能包括生物學(xué)家。這又回到了一個問題上,我們應(yīng)該怎么做?也許我們應(yīng)該在未來的程序員培訓(xùn)過程中加入倫理課程。在那些設(shè)計人工智能工具的大公司里,同樣也要配備倫理專家這樣的團(tuán)隊,他們需要考慮設(shè)計人員會在不經(jīng)意間加入哪些偏見,它會給政治或文化方面帶來什么樣的影響。而不是等到惡果出現(xiàn)了,才追悔莫及。

是否存在道德和人工智能預(yù)測精準(zhǔn)性的問題?與全力研發(fā)技術(shù)相比,邊研究技術(shù)邊考慮道德問題,進(jìn)度是否會更慢?

Yuval:這就是一個類似軍備競賽的問題。我覺得,這是AI目前面臨非常危險的一個問題。越來越多的國家意識到這種技術(shù)的重要性,都擔(dān)心自己會被別的國家甩在后面。避免這種軍備競賽的唯一方法,就是進(jìn)行更充分的交流。這聽起來有些虛幻,因為我們現(xiàn)在完全是在背道而馳。我們的工作就是要讓人們明白,AI的惡性競爭就類似于核戰(zhàn)爭,誰都不會成為贏家。美國人可能會說自己是好人,但這個人工智能領(lǐng)域的領(lǐng)先者,只服務(wù)于美國自己的利益,誰又能相信它的公正性?

Yuval:我認(rèn)為全球合作可能非常脆弱。核武器的軍備競賽雖然會讓一大批核彈問世,但是人們從沒使用過它,人工智能不一樣,它一直在被使用,最終孕育出一個集權(quán)政體。因此我認(rèn)為它更加危險。

如果不同的國家之間存在巨大的技術(shù)差距,那會發(fā)生什么?會像19世紀(jì)工業(yè)革命那樣,少數(shù)掌握工業(yè)力量的國家統(tǒng)治了整個世界的經(jīng)濟(jì)和政治?如何避免悲劇重演?哪怕沒有戰(zhàn)爭,全球大多數(shù)人仍然處于被剝削狀態(tài),大部分人的勞動所得最終都屬于少數(shù)幾個國家。

李飛飛:不同地區(qū)的技術(shù)研究進(jìn)度的確不同。不同于19世紀(jì)和20世紀(jì),技術(shù)正在以非?斓乃俣热蚧。任何基礎(chǔ)性的科研論文都能在網(wǎng)上查到。不同國家可能因為制度不同,在技術(shù)研究上可能存在一定差距,但我認(rèn)為你所描述的情況,還是很難發(fā)生的。

Yuval:我說的可不只是科研論文。是的,論文是全世界共享的,但如果我生活在也門、尼加拉瓜、印尼或者加沙,我沒有數(shù)據(jù)和基礎(chǔ)設(shè)施,我就算上網(wǎng)下載了論文又能如何。你要看看那些擁有所有數(shù)據(jù)的大公司來自哪里,基本只有兩個地方,其中不包括歐洲,畢竟歐洲沒有谷歌、亞馬遜、百度或者騰訊。你再看看拉美、非洲、中東和大部分東南亞地區(qū),他們也能學(xué)到這些知識,但想要借此對抗亞馬遜還遠(yuǎn)遠(yuǎn)不夠。

擁有數(shù)據(jù)和更高計算能力的人是否將獲得更多的權(quán)力,收入的不平等也會因此加劇?

Yuval:正如我所說的,這很可能還只是個開始。它在經(jīng)濟(jì)和政治方面帶來的影響將是災(zāi)難性的。那些依賴手工勞動力的國家的經(jīng)濟(jì)體系可能會因此崩潰,它們沒有足夠的教育資金去參與人工智能競爭。洪都拉斯和班加羅爾的生產(chǎn)基地將搬回美國和德國,因為人力成本不再重要,加州生產(chǎn)的襯衫可能比洪都拉斯便宜。這些國家的人又該何去何從,新生的崗位是留給軟件工程師的,洪都拉斯的孩子可沒有錢去學(xué)習(xí)編程。

李飛飛:的確,Yuval預(yù)想到了很多我們面臨的危機(jī),因此我們需要更多人來研究和思考這些問題。但目前全世界的國家、政府和公司都還有時間思考自己的數(shù)據(jù)及人工智能策略,意識到當(dāng)下是他們的國家、地區(qū)和公司的關(guān)鍵時刻。而這些潛在危機(jī)正是因為他們還沒意識到要跟上數(shù)字時代的潮流,也是時候引起他們的注意了。

Yuval:是的,這非常緊急。某種程度上講,這就是一種數(shù)字殖民:從巴西、印尼等國家搜集數(shù)據(jù),然后由美國來處理,最后生產(chǎn)出更好的設(shè)備和技術(shù),賣回殖民地。盡管它和19世紀(jì)的殖民存在差別,但這種類比值得我們留意。

人們?nèi)绾谓ㄔO(shè)AI公司,是推動數(shù)字殖民,還是改正它?又該怎么看待人工智能,以及如何去學(xué)習(xí)?

Yuval:就我個人而言,我認(rèn)為不論是否在斯坦福大學(xué)深造,是否是工程師,都一定要更加了解你自己,因為你正處于一場競爭中。這也是所有哲學(xué)書中最經(jīng)典的建議。蘇格拉底、孔夫子、釋迦摩尼都給出過類似的看法。但在釋迦摩尼或蘇格拉底的時代,你不了解自己也沒關(guān)系,你只是錯過了頓悟的機(jī)會。如今你們處于競爭中,如果不了解自己,你就完了。對于工程師或?qū)W生,我希望實驗室和工程部門出現(xiàn)兩件東西。第一,我希望出現(xiàn)一種離心化的系統(tǒng),而不是中心化的系統(tǒng),我不知道該怎么做,但我希望你們可以嘗試,我聽說區(qū)塊鏈在這方面挺有潛力的。這是對我們民主制度的保護(hù)。

第二,我希望出現(xiàn)一種專門為人服務(wù)的工具,而不是為企業(yè)或者政府服務(wù)。也許我們無法阻止人工智能了解自己,那么我希望它了解我們是為了保護(hù)我們不受其它人工智能的侵襲。就像我的身體不能對抗電腦病毒,但是我的電腦可以裝殺毒軟件。

<上一頁  1  2  
聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點(diǎn)和對其真實性負(fù)責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號