<1> 這篇文章與大家分享“強(qiáng)化學(xué)習(xí)”,英文名叫做“Reinforcement Learning”。這是一個(gè)有趣的機(jī)器學(xué)習(xí)算法,去年在國(guó)際圍棋界大顯身手、戰(zhàn)勝世界冠軍的AlphaGo以及其進(jìn)化版AlphaGo zero的關(guān)鍵技術(shù)就是強(qiáng)化學(xué)習(xí)。它還被用于玩電腦游戲,比如Dota2、英雄聯(lián)盟、Flappy bird,還有各種小游戲。 AlphaGo VS 柯潔 AI玩Pingpong游戲 <2> 正式介紹強(qiáng)化學(xué)習(xí)前我們先科普一下人工智能和智能算法的關(guān)系,看圖 AI知識(shí)圖譜 人工智能是一個(gè)非常大的概念,機(jī)器學(xué)習(xí)(Machine Learning)算法是人工智能的主要技術(shù)之一,而且是現(xiàn)在應(yīng)用最廣泛的也是機(jī)器學(xué)習(xí)算法, 深度學(xué)習(xí)(Deep Learning)或深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks)屬于機(jī)器學(xué)習(xí),所以現(xiàn)在人們一般有下面的認(rèn)識(shí): AI-ML-DL 傳統(tǒng)上,機(jī)器學(xué)習(xí)算法一般可以分為有監(jiān)督學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí),二者各有長(zhǎng)短。監(jiān)督學(xué)習(xí)認(rèn)為人要把自己的經(jīng)驗(yàn)教給機(jī)器。拿分辨貓貓和狗狗的 AI 來(lái)說(shuō),你需要準(zhǔn)備幾千張照片,然后手把手教機(jī)器——哪張照片是貓,哪張照片是狗。機(jī)器會(huì)從中學(xué)習(xí)到分辨貓狗的細(xì)節(jié),從毛發(fā)到眼睛到耳朵,然后舉一反三得去判斷一張它從沒見過的照片是貓貓還是狗狗。 而無(wú)監(jiān)督學(xué)習(xí)認(rèn)為機(jī)器要去自己摸索,自己發(fā)現(xiàn)規(guī)律。人的經(jīng)驗(yàn)或許能幫助機(jī)器掌握智能,但或許人的經(jīng)驗(yàn)是有缺陷的,不如讓機(jī)器自己發(fā)現(xiàn)新的,更好的規(guī)律。人的經(jīng)驗(yàn)就放一邊吧。 <3> 強(qiáng)化學(xué)習(xí)是無(wú)監(jiān)督學(xué)習(xí)的一種。強(qiáng)化學(xué)習(xí)是一種模仿人類學(xué)習(xí)方式的模型,它的基本想法是:要是機(jī)器得到了好的結(jié)果就能得到獎(jiǎng)勵(lì),要是得到差的結(jié)果就得到懲罰。 舉個(gè)例子,訓(xùn)練一只汪星人聽懂人的命令。開始主人對(duì)小汪下了“坐下”的指令,可小汪不知道什么意思,搖了搖尾巴;然后主人又下了一次“坐下”的指令,小汪還是聽不懂啊,又搖了搖尾巴,主人生氣了,踢了小汪一腳;第三次,主人又對(duì)小汪下了“坐下”的命令,小汪也著急了,急得一屁股坐在了地上。哈哈,然而主人很高興,小汪能聽懂了,于是賞了小汪一根骨頭。小汪啃著骨頭也恍然大悟了,主人說(shuō)“坐下”的時(shí)候,自己坐下就會(huì)有骨頭吃,于是小汪就聽懂這個(gè)命令了。 我們來(lái)抽象一下上邊的例子就是強(qiáng)化學(xué)習(xí)了。強(qiáng)化學(xué)習(xí)有四個(gè)要素:
實(shí)際的應(yīng)用場(chǎng)景中,并不像訓(xùn)練小汪那么容易,有如下的難點(diǎn):
強(qiáng)化學(xué)習(xí)概括起來(lái)就是,計(jì)算機(jī)在很多次的嘗試中,根據(jù)每次嘗試的獎(jiǎng)勵(lì)或懲罰反饋,逐漸的找到了一系列最好的動(dòng)作(Action)策略。歡迎同學(xué)們來(lái)跟我們一起學(xué)習(xí)具體的算法和程序?qū)崿F(xiàn)。同學(xué)們可以思考一下,如果是貪吃蛇游戲,狀態(tài)和動(dòng)作都有哪些? |
|
來(lái)自: 飛揚(yáng)czqht0vrjl > 《人工智能》