訂閱
糾錯
加入自媒體

自動駕駛新進(jìn)展!微軟和MIT開發(fā)出可以檢測AI“盲點”的模型

2019-01-28 10:28
AI銳見
關(guān)注

近日,據(jù)外媒報道,微軟和麻省理工開發(fā)了一個模型,可以捕捉這些自動駕駛汽車系統(tǒng)的虛擬的“盲點”。據(jù)麻省理工稱,這種方法讓人工智能將一個人在特定情況下的行為與它本來會做的行為進(jìn)行比較,并根據(jù)它與反應(yīng)的匹配程度來改變其行為。

如果一輛自動駕駛汽車在救護(hù)車疾馳而過時不知道如何靠邊停車,它可以通過觀察一名真實的司機(jī)移到路邊來學(xué)習(xí)。

自動駕駛汽車仍然容易出錯,部分原因是人工智能訓(xùn)練只能解釋這么多情況。而該模型還可以實時修正,如果人工智能出了問題,一個人類司機(jī)就可以接管并指出了問題。

研究人員甚至有辦法防止無人駕駛汽車變得過于自信,并將給定響應(yīng)的所有實例標(biāo)記為安全。機(jī)器學(xué)習(xí)算法不僅可以識別可接受和不可接受的響應(yīng),還可以使用概率計算來識別模式,并確定某樣?xùn)|西是真正安全的,還是仍然存在潛在的問題。即使一個行動在90%的情況下是正確的,它可能仍然會看到它需要解決的弱點。

這項技術(shù)還沒有應(yīng)用到這個領(lǐng)域?茖W(xué)家們只是用電子游戲來測試他們的模型,在游戲中有有限的參數(shù)和相對理想的條件。

微軟和麻省理工學(xué)院仍然需要用真正的汽車進(jìn)行測試。不過,如果這種方法奏效,它可能在讓自動駕駛汽車變得實用方面大有作為。早期的車輛在處理像雪天這樣簡單的事情上仍然存在問題,更不用說在快節(jié)奏的交通中,一個錯誤就可能導(dǎo)致撞車。這可以幫助他們處理棘手的情況,而不需要精心設(shè)計的定制解決方案或?qū)⒊丝椭糜谖kU之中。

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號