訂閱
糾錯
加入自媒體

強(qiáng)化學(xué)習(xí)在無人機(jī)項(xiàng)目中的應(yīng)用

2021-05-28 14:26
AI世界
關(guān)注

近年來,無人機(jī)已被廣泛應(yīng)用于很多領(lǐng)域,它不僅可以完成很多的任務(wù),包括軌跡規(guī)劃、避障、巡航等,在民用、軍事都有很廣泛應(yīng)用,而且還有降低成本、提高效率、減少損失等很多作用。

但是傳統(tǒng)的無人機(jī)任務(wù)都采用飛控控制,需要人為操作。為了使無人機(jī)可以具備更廣的適用性,或者從技術(shù)上來說擁有更好的泛化能力,深蘭科學(xué)院嘗試用強(qiáng)化學(xué)習(xí)來訓(xùn)練無人機(jī)做指定的任務(wù)。如果訓(xùn)練效果能夠達(dá)到足夠穩(wěn)定的性能,則可以進(jìn)一步實(shí)現(xiàn)商用目的。本文在此基礎(chǔ)上,帶大家簡單了解一下強(qiáng)化學(xué)習(xí)的基礎(chǔ)知識。

強(qiáng)化學(xué)習(xí)小課堂

什么是強(qiáng)化學(xué)習(xí)?

1、強(qiáng)化學(xué)習(xí)

強(qiáng)化學(xué)習(xí)(Reinforcement Learning RL)也有很多其他名字,例如再勵學(xué)習(xí)、增強(qiáng)學(xué)習(xí)、評價學(xué)習(xí),是機(jī)器學(xué)習(xí)的范式和方法論之一,用于描述和解決智能體在與環(huán)境的交互過程中,通過學(xué)習(xí)策略以達(dá)成回報(bào)最大化或?qū)崿F(xiàn)特定目標(biāo)的問題。

上圖為經(jīng)典的強(qiáng)化學(xué)習(xí)結(jié)構(gòu)圖,從圖片中可以看出,強(qiáng)化學(xué)習(xí)過程主要由4部分構(gòu)成:智能體(agent)、觀測到的狀態(tài)(observation/state)、獎勵(reward)和行為(action)。

一個強(qiáng)化學(xué)習(xí)的過程中,智能體獲得從當(dāng)前環(huán)境中觀測到的狀態(tài),然后根據(jù)這一狀態(tài)采取一定的行為或策略,同時,有一個評價系統(tǒng)來評價這個行為的好壞,并返回正/負(fù)獎勵給到智能體。循環(huán)往復(fù),直到完成整個任務(wù),此為一次強(qiáng)化學(xué)習(xí)的交互。整個強(qiáng)化學(xué)習(xí)訓(xùn)練過程就是,智能體與環(huán)境不斷的交互,最終會學(xué)習(xí)到合理的策略,讓獎勵最大或者達(dá)到某個任務(wù)(指定的狀態(tài))。

強(qiáng)化學(xué)習(xí)受行為主義心理學(xué)的啟發(fā),例如巴甫洛夫條件反射實(shí)驗(yàn),訓(xùn)練搖鈴小狗流口水。小狗看到吃的流口水、搖鈴不流口水,實(shí)驗(yàn)中就采取搖鈴并給狗喂狗糧的方法不停訓(xùn)練,最終即使在沒有狗糧,只搖鈴的情況下,小狗也會流口水。

強(qiáng)化學(xué)習(xí)與此類似,是讓智能體在與環(huán)境交互的過程中,一旦選擇對的行為則給予正獎勵加強(qiáng)這種行為,在不斷的訓(xùn)練過程中使得智能體選擇最合適的行為,最終使得智能體的每一步都能選擇合理的行為,從而達(dá)到整體任務(wù)獎勵最大化,并完成任務(wù)。

2、深度強(qiáng)化學(xué)習(xí)

我們一般所說的強(qiáng)化學(xué)習(xí)其實(shí)是深度強(qiáng)化學(xué)習(xí)(Deep Reinforcement Learning DRL),深度強(qiáng)化學(xué)習(xí)是強(qiáng)化學(xué)習(xí)與深度學(xué)習(xí)結(jié)合的結(jié)果。顧名思義,就是將傳統(tǒng)強(qiáng)化學(xué)習(xí)中的某一部分用深度學(xué)習(xí)來完成。

傳統(tǒng)強(qiáng)化學(xué)習(xí)中的行為以及價值都是需要人為定義的,這也就是為什么傳統(tǒng)強(qiáng)化學(xué)習(xí)起源較早,但是應(yīng)用并不廣泛的原因之一。而深度學(xué)習(xí)恰好將這一問題解決了,強(qiáng)化學(xué)習(xí)中的行為以及價值都用一個深度學(xué)習(xí)的網(wǎng)絡(luò)來學(xué)習(xí)得到,這樣不需要人為設(shè)定,使得強(qiáng)化學(xué)習(xí)可以廣泛應(yīng)用于很多領(lǐng)域。而傳統(tǒng)強(qiáng)化學(xué)習(xí)無法解決的連續(xù)性動作的問題,深度強(qiáng)化學(xué)習(xí)也可以解決,使用對應(yīng)的Actor-critic網(wǎng)絡(luò)即可。

深度強(qiáng)化學(xué)習(xí)的分類,有很多種分類標(biāo)準(zhǔn)。

從智能體的個數(shù)上,可分為單智能體算法和多智能體算法;

從是否基于模型的角度,可分為model-based和model-free;

從訓(xùn)練時策略的選擇,可分為on-policy和off-policy等等。

這里不一一展開,但在實(shí)際運(yùn)用強(qiáng)化學(xué)習(xí)的時候,根據(jù)具體的任務(wù)或者項(xiàng)目,需要選擇合適的深度強(qiáng)化學(xué)習(xí)算法。

1  2  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號