欧美成人黄色网_欧美精品久久_国产在线一区二区三区_免费视频久久久_亚洲二区视频_欧美大片免费高清观看

產品分類

當前位置: 首頁 > 工業控制產品 > 自動化控制 > 人工智能

類型分類:
科普知識
數據分類:
人工智能

人工智能之強化學習(RL)

發布日期:2022-10-09 點擊率:85


當前人工智能之機器學習算法主要有7大類:1)監督學習(Supervised Learning),2)無監督學習(Unsupervised Learning),3)半監督學習(Semi-supervised Learning),4)深度學習(Deep Learning),5)強化學習(Reinforcement Learning),6)遷移學習(Transfer Learning),7)其他(Others)。

今天我們重點探討一下強化學習(RL)。

blob.png

強化學習(RL),又稱再勵學習、評價學習,是一種重要的機器學習方法,在智能控制機器人及分析預測等領域有許多應用。

那么什么是強化學習?

強化學習是智能系統從環境到行為映射的學習,以使獎勵信號(強化信號)函數值最大,強化學習不同于連接主義學習中的監督學習,主要表現在教師信號上,強化學習中由環境提供的強化信號是對產生動作的好壞作一種評價(通常為標量信號),而不是告訴強化學習系統RLS(reinforcement learning system)如何去產生正確的動作。由于外部環境提供的信息很少,RLS必須靠自身的經歷或能力進行學習。通過這種方式,RLS在行動評價的環境中獲得知識,改動方案以適應環境。

通俗的講,就是當一個小孩學習有迷?;蚶Щ髸r,如果老師發現小孩方法或思路正確,就給他(她)正反饋(獎勵或鼓勵);否則就給他(她)負反饋(教訓或懲罰),激勵小孩的潛能,強化他(她)自我學習能力,依靠自身的力量來主動學習和不斷探索,最終讓他(她)找到正確的方法或思路,以適應外部多變的環境。

強化學習有別于傳統的機器學習,不能立即得到標記,而只能得到一個反饋(獎或罰),可以說強化學習是一種標記延遲的監督學習。強化學習是從動物學習、參數擾動自適應控制等理論發展而來的。

blob.png

強化學習原理:

如果Agent的某個行為策略導致環境正的獎賞強化信號,那么Agent以后產生這個行為策略的趨勢加強。Agent的目標是在每個離散狀態發現最優策略以使期望的折扣獎賞和最大。

強化學習把學習看作試探評價過程,Agent選擇一個動作用于環境,環境接受該動作后狀態發生變化,同時產生一個強化信號(獎或懲)反饋給Agent,Agent根據強化信號和環境當前狀態再選擇下一個動作,選擇的原則是使受到正強化(獎)的概率增大。選擇的動作不僅影響立即強化值,而且影響環境下一時刻的狀態及最終的強化值。

若已知R/A梯度信息,則可直接可以使用監督學習算法。因為強化信號R與Agent產生的動作A沒有明確的函數形式描述,所以梯度信息R/A無法得到。因此,在強化學習系統中,需要某種隨機單元,使用這種隨機單元,Agent在可能動作空間中進行搜索并發現正確的動作。

強化學習模型

強化學習模型包括下面幾個要素:

1)  規則(policy):規則定義了Agent在特定的時間特定的環境下的行為方式,可以視為是從環境狀態到行為的映射,常用 π來表示。可以分為兩類:

確定性的policy(Deterministic policy): a=π(s)

隨機性的policy(Stochastic policy): π(a|s)=P[At=a|St=t]

其中,t是時間點,t=0,1,2,3,……

St∈S,S是環境狀態的集合,St代表時刻t的狀態,s代表其中某個特定的狀態;

At∈A(St),A(St)是在狀態St下的actions的集合,At代表時刻t的行為,a代表其中某個特定的行為。

2)  獎勵信號(areward signal):Reward是一個標量值,是每個time step中環境根據agent的行為返回給agent的信號,reward定義了在該情景下執行該行為的好壞,agent可以根據reward來調整自己的policy。常用R來表示。

3)  值函數(valuefunction):Reward定義的是立即的收益,而value function定義的是長期的收益,它可以看作是累計的reward,常用v來表示。

4)  環境模型(a modelof the environment):整個Agent和Environment交互的過程可以用下圖來表示:

blob.png

Agent作為學習系統,獲取外部環境Environment的當前狀態信息St,對環境采取試探行為At,并獲取環境反饋的對此動作的評價Rt+1和新的環境狀態St+1 。如果Agent的某動作At導致環境Environment的正獎賞(立即報酬),那么Agent以后產生這個動作的趨勢便會加強;反之,Agent產生這個動作的趨勢將減弱。在強化學習系統的控制行為與環境反饋的狀態及評價的反復交互作用中,以學習的方式不斷修改從狀態到動作的映射策略達到優化系統性能目的。

blob.png

下一篇: PLC、DCS、FCS三大控

上一篇: 索爾維全系列Solef?PV

推薦產品

更多
主站蜘蛛池模板: www精品久久 | 亚洲国产精品综合久久网各 | 国产99高清一区二区 | 日本一级毛片无遮挡 | 久久精品亚洲欧美日韩久久 | 久久精品国产亚洲av麻豆蜜芽 | 99在线影院 | 日本三级吃奶头添泬 | 国产美女亚洲精品久久久综合 | 国产自产拍精品视频免费看 | 精品一区二区三区亚洲 | 天天av天天翘天天综合网 | 青青草视频免费观看 | 男插女下面视频 | 国产成+人+综合+亚洲专 | 亚洲成本人网亚洲视频大全 | 一出一进一爽一粗一大视频 | 四虎论坛 | 国产亚洲综合精品一区二区三区 | 一本色道久久综合亚洲精品不卡 | 性夜影院爽黄e爽 | 99精品产国品一二三产区 | 国产在线拍小情侣国产拍拍偷 | 欧妇女乱妇女乱视频 | 国产白袜脚足j棉袜在线观看 | 亚洲一本大道无码av天堂 | 中文字幕久久第13页 | 国产精品久久久久久av福利 | 阿v视频免费在线观看 | 国产精品www视频免费看 | 日韩一区二区免费视频 | 国产精品白浆一区二小说 | 欧美性猛交xxxx免费看 | 日韩av无码中文无码不卡电影 | 精品水蜜桃久久久久久久 | 欧美日韩中文视频 | 亚洲精品国产第一区第二区国 | 国产丝袜网站 | 亚洲综合激情五月色播 | 国产欧洲亚洲 | 欧美日韩中文视频 |