訂閱
糾錯
加入自媒體

千人聯(lián)名叫停ChatGPT-5,為什么

2023-03-31 10:48
幫寧工作室
關注

編譯 | 楊玉科

編輯 | 葛幫寧出品 | 幫寧工作室(gbngzs)

“這是一場沒有人能預測或控制的危險競賽”。

2023年3月29日,包括埃隆·馬斯克(Elon Musk)和蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)在內,1000多名科技界領袖呼吁暫停開發(fā)人工智能。他們擔心這場危險競賽會對社會和人類構成“深遠的風險”,且可能產生“災難性”影響。 

在由非營利組織生命未來研究所(The Future of Life Institute)發(fā)布的一封名為《暫停大型人工智能實驗》公開信中,馬斯克和其他科技界領袖呼吁,所有人工智能實驗室停止開發(fā)產品至少6個月,并對其進行更多風險評估。 

“我們呼吁所有人工智能實驗室立即暫停對比GPT-4更強大的人工智能系統(tǒng)的試驗,至少6個月。”信中建議道,暫停行動應該是公開的、可核實的,包括所有關鍵行為者。如果實驗室拒絕,呼吁者希望政府介入,并強制實施暫停。 

這是一種普遍存在的擔憂。這種擔憂甚至得到Open AI公司首席執(zhí)行官山姆·阿爾特曼(Sam Altman)的認同,后者創(chuàng)建了ChatGPT。阿爾特曼早些時候曾表示,這項技術可以被開發(fā)利用進行“廣泛的”網絡攻擊。 

自GPT-4發(fā)布以來,Open AI一直在用“插件”為人工智能系統(tǒng)添加功能,使其能在開放網絡上查找數據、計劃假期,甚至訂購雜貨等。但該公司必須處理“能力過剩”問題——系統(tǒng)發(fā)布時比它所預知的更強大。 

公開信還詳細介紹了與人類競爭的人工智能系統(tǒng),將以經濟和政治破壞的形式對社會和文明造成的潛在風險,呼吁開發(fā)者與政策制定者就治理和監(jiān)管機構展開合作。 

這封信發(fā)布之前2天,即3月27日,歐盟警察機構歐洲刑警組織(Europol)警告道,ChatGPT等系統(tǒng)可能被濫用于網絡釣魚企圖、虛假信息和網絡犯罪。

▍對奇點心存恐懼

從太空旅行到自動駕駛汽車,馬斯克希望將科技推向絕對極限。但在人工智能方面,馬斯克卻劃清了界限。 

早在2014年,馬斯克首次分享對人工智能的看法時,就將其比作“召喚惡魔”,稱其為人類“最大的生存威脅”。彼時,馬斯克透露,他投資人工智能公司不是為了賺錢,而是密切關注這項技術,以防它失控。 

馬斯克最擔心的是,如果人工智能在錯誤的人手里變得先進,它可能會超過人類,宣告人類的終結,這就是常說的奇點。 

許多聰明人都曾有這樣的擔憂,包括已故者斯蒂芬·霍金(Stephen Hawking),2014年他就曾告訴BBC(英國廣播公司):“完全人工智能的發(fā)展可能意味著人類的終結。”人工智能會自己起飛,并以不斷加快的速度重新設計自己。 

盡管馬斯克對人工智能心存恐懼,但他還是投資了總部位于舊金山的人工智能公司Vicarious和DeepMind,后者已被谷歌和Open AI收購。正是Open AI創(chuàng)造了最近幾個月風靡全球的ChatGPT程序。 

馬斯克與Open AI現任首席執(zhí)行官山姆·阿爾特曼一起創(chuàng)立了Open AI公司。2016年,馬斯克在一次采訪中坦言,他和阿爾特曼創(chuàng)立這家公司是為了“讓人工智能技術民主化,讓它得到廣泛應用”。 

2018年,馬斯克試圖控制這家初創(chuàng)公司,其請求被拒絕后,他被迫從Open AI退出,但仍繼續(xù)從事其他項目。2022年11月,Open AI推出ChatGPT,在全球迅速獲得成功。 

這個聊天機器人是一個經過大量文本數據訓練的大型語言模型,根據給定的提示生成類似人類的文本。ChatGPT可用于撰寫研究論文、書籍、新聞文章和電子郵件等。 

當阿爾特曼沉浸在ChatGPT的榮耀之中時,馬斯克正在從各個方面攻擊ChatGPT。馬斯克說,這款人工智能已經“覺醒”,偏離了Open AI最初的非營利使命。

今年2月,馬斯克在推特上寫道:“Open AI作為一個開源(這就是我為什么把它命名為Open AI)的非盈利公司而創(chuàng)建,旨在與谷歌抗衡,但現在,它已經成為一個由微軟有效控制的封閉資源的最大利潤公司。” 

雖然Open AI似乎在馬斯克的目標清單上,但他仍然擔心人工智能會達到奇點。 

“奇點”這個詞在世界范圍內引起軒然大波,因為人工智能發(fā)展只能在科幻小說中看到——它實際代表什么意思? 

簡而言之,奇點描述了一種假設的未來,在那里技術超越了人類的智力,改變了我們的演變道路。專家表示,一旦人工智能達到這一點,它的創(chuàng)新速度將比人類快得多。 

這一進步有兩種方式展現。第一種方式是人類和機器合作,創(chuàng)造一個更適合人類的世界。例如,人類可以掃描自己的意識,將其存儲在電腦中,他們將在那里永遠生存下去。 

第二種方式是人工智能變得比人類更強大,控制人類并使人類成為它的奴隸——但如果這是真的,那也是在遙遠的未來。研究人員正在尋找人工智能達到奇點的跡象,比如該技術能像人類一樣準確地翻譯語音,更快地執(zhí)行任務。 

谷歌前工程師雷·庫茲韋爾(Ray Kurzweil)預測,奇點將在2045年到來。自1990年代初期以來,庫茲韋爾已經對技術進步做出過147次預測,其中86%是正確的。 

1000多人聯(lián)名簽署的公開信中寫道,人工智能實驗室目前“陷入了一場失控的競賽,開發(fā)和部署更強大的數字思維,沒有人——甚至包括它們的創(chuàng)造者——能夠理解、預測或可靠地控制它”。 

谷歌和微軟都沒有人簽字,而這兩家公司被認為是開發(fā)這項技術的前沿。 

微軟所支持的Open AI,自ChatGPT發(fā)布以來,競爭對手已推出類似產品,促使企業(yè)將其或類似技術集成到自己的應用程序和產品中。 

阿爾特曼愿意聽取有關ChatGPT的反饋,希望更好了解其風險。在3月27日的播客采訪中,他坦承這個工具會造成傷害。“會有傷害,也會有巨大的好處。我們將把壞的最小化,把好的最大化。”

▍“這更像是一場自殺式競賽”

支持人工智能暫停的團體表示,暫停6個月或更長時間,讓行業(yè)有時間為人工智能設計制定安全標準,以阻止風險最高的人工智能技術的潛在危害。 

“我們已經達到這樣的地步,這些系統(tǒng)已經足夠智能,可以用在對社會有害的方面。”蒙特利爾大學蒙特利爾學習算法研究所所長Yoshua Bengio(本吉奧)接受采訪時說。 

公開信沒有呼吁停止所有人工智能的開發(fā),但敦促相關公司暫時停止比GPT-4更強大的培養(yǎng)系統(tǒng)。GPT-4是Open AI公司本月發(fā)布的技術。 

Open AI還沒有開始研發(fā)GPT-5。阿爾特曼表示,公司在開發(fā)過程中一直將安全性放在首位,GPT-4發(fā)布前花了6個多月時間進行安全測試。 

“某種意義上,這是對唱詩班的說教。”阿爾特曼認為,“我們對這些問題的討論是最大聲、最激烈、最長久的。” 

一邊是暫停的呼吁,一邊是科技公司和初創(chuàng)公司對生成式人工智能(一種能根據人工提示生成原創(chuàng)內容的技術)加倍投入的愿景。去年秋天,Open AI公司推出一款聊天機器人,該機器人能提供冗長的答案,像人類一樣復雜地編寫計算機代碼。 

關于生成式人工智能的討論自此爆發(fā)。 

微軟已經在必應搜索引擎和其他工具中采用了這種技術。谷歌則部署了競爭對手的系統(tǒng),Adobe、Zoom和Salesforce等公司也推出了先進的人工智能工具。 

“競賽從今天開始打響。”微軟首席執(zhí)行官薩提亞·納德拉(Satya Nadella)上個月說,“我們要行動,而且要快。” 

這種做法引發(fā)了人們的擔憂——快速推廣可能在帶來實際好處的同時,產生意想不到的后果。 

生命未來研究所所長、麻省理工學院物理學教授馬克斯·泰格馬克(Max Tegmark)認為,人工智能的進步已經超過許多專家?guī)啄昵罢J為可能實現的水平。 

“不幸的是,這更像是一場自殺式競賽。誰先到并不重要,這只是意味著,人類作為一個整體可能會失去對自己命運的控制。”泰格馬克說。 

馬斯克和沃茲尼亞克都表達過對人工智能技術的擔憂。3月29日,馬斯克在推特上寫道,這種先進人工智能技術的開發(fā)者“不會注意到這個警告,但至少有人這么說過”。 

特斯拉汽車也采用了一些人工智能工具,用于高級駕駛輔助功能。特斯拉上個月宣布,擬召回約36.28萬輛配備“完全自動駕駛測試版”技術的汽車。 

美國最高汽車安全機構認為,在極少數情況下,這項技術可能違反當地交通法規(guī),如果司機不進行干預,可能會增加發(fā)生碰撞的風險。

3月29日,Stability AI首席執(zhí)行官穆斯塔克(Mostaque)在推特上說,盡管他簽署了聯(lián)名信,但并不同意暫停6個月。“它沒有任何約束力,但將開啟一場重要討論,這有望為一個不透明領域帶來更多透明度和治理。” 

微軟拒絕置評。谷歌沒有立即回復置評請求。 

泰格馬克稱,許多公司在將先進的人工智能技術添加到產品中時,感到了“瘋狂的商業(yè)壓力”。暫停6個月將給行業(yè)“喘息的空間”,不會對那些謹慎行動的企業(yè)帶來不利。 

人工智能實驗室和專家可以利用這段時間,為高級人工智能設計制定一套共享的安全規(guī)則,這些規(guī)則應該由外部專家進行審計和監(jiān)督。 

本吉奧認為,我們承受不起前進和打破現狀的代價,我們確實需要花時間共同思考這個問題。

| 聯(lián)名叫停公開信

廣泛的研究表明,具有人類競爭智能的人工智能系統(tǒng),可能對社會和人類造成深遠的風險。頂級人工智能實驗室對此也供認不諱。

正如已被廣泛認可的阿西洛瑪人工智能準則所述,先進的人工智能可能代表地球生命史上的一場深刻變革,因此,應該投入相應的關注和資源對其進行規(guī)劃和管理。

不幸的是,高規(guī)格的規(guī)劃和管理并沒有發(fā)生。盡管最近幾個月,人工智能實驗室陷入了一場失控的競賽,競相開發(fā)和部署更強大的數字思維,沒有人——甚至包括它們的創(chuàng)造者——能夠理解、預測或可靠地控制它。

在一般任務上,當代人工智能系統(tǒng)可以具備與人類競爭的實力,我們必須捫心自問——我們是否應該讓機器用鼓吹和謊言淹沒我們的信息渠道?我們是否應該把所有的工作都自動化,包括那些令人滿意的工作?我們是否應該發(fā)展非人類思維,讓它們最終在數量上、智力上超過我們,淘汰并取代我們?我們是否應該冒險失去對人類文明的控制?

如此重要的決定權,不應該交給未經選舉產生的科技領導者。

只有在我們確信它的影響是積極的、風險是可控的情況下,才應該開發(fā)強大的人工智能系統(tǒng)。這種信心必須有充分的驗證,并隨著智能系統(tǒng)潛在影響的大小而增加。

Open AI最近在關于人工智能的聲明中表示,“在某一個時刻,在開始訓練未來的系統(tǒng)之前,獲得獨立的審查可能很重要。對于最先進的努力,同意限制用于創(chuàng)建新模型的計算增長速度也很重要。”

我們贊同Open AI的說法,而這個時刻就是現在。

因此,我們呼吁,所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統(tǒng)實驗,至少6個月。這種暫停應該是公開的、可核實的,包括所有關鍵行為者。如果這樣的暫停不能迅速實施,政府就應該介入并實施暫停。

人工智能實驗室和獨立專家應該利用這6個月的時間,共同開發(fā)和實施一套先進人工智能設計和開發(fā)的共享安全協(xié)議。這些協(xié)議由獨立的外部專家嚴格審計和監(jiān)督,確保遵守這些協(xié)議的系統(tǒng)絕對安全。

這并不意味著,人工智能開發(fā)總體上的暫停,只是從危險的競賽退回到,具有應急能力的更大的不可預測的黑盒模型。

人工智能的研究和開發(fā)應該重新聚焦于,使當今強大的最先進的系統(tǒng)更加準確、安全、可解釋、透明、健康、一致、值得信賴和忠誠。

與此同時,人工智能開發(fā)人員必須與政策制定者合作,大幅加快開發(fā)強大的人工智能監(jiān)管系統(tǒng)。

這些措施至少應包括——專屬人工智能的全新、有能力的監(jiān)管機構;監(jiān)督和跟蹤高性能人工智能系統(tǒng)和大型計算能力池;出處和水印系統(tǒng),以幫助區(qū)分真實的和合成內容,并跟蹤模型泄漏;健全的審計和認證生態(tài)系統(tǒng);人工智能造成的損害責任;為人工智能技術安全研究提供強有力的公共資金;資源豐富的機構,以應對人工智能將造成的巨大經濟和政治混亂(尤其是對民主的破壞)。

有了人工智能,人類可以享受繁榮的未來。在成功創(chuàng)建強大的人工智能系統(tǒng)之后,我們現在可以享受一個“人工智能之夏”。在這個夏天,我們可以收獲回報,為了所有人的明顯利益設計這些系統(tǒng),并給社會一個適應的機會。

社會已經暫停其他對社會有潛在災難性影響的技術。對于人工智能,我們也可以這樣做。讓我們享受一個漫長的人工智能之夏,而不是毫無準備地匆忙進入秋天。

 (本文部分內容綜合Automotive News、The Verge、The Guardian、Daily mail、WSJ報道,部分圖片來自網絡)

       原文標題 : 千人聯(lián)名叫停ChatGPT-5,為什么

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網安備 44030502002758號