雖然您可以嘗試在家中構(gòu)建自己的GPU陣列并開始訓(xùn)練機(jī)器學(xué)習(xí)模型,但嘗試與AI相關(guān)的服務(wù)最簡單方法可能是通過云。 所有主要的技術(shù)公司都提供各種AI服務(wù),從用于構(gòu)建和訓(xùn)練自己的機(jī)器學(xué)習(xí)模型的基礎(chǔ)結(jié)構(gòu),到允許您訪問AI驅(qū)動的工具(如按需訪問語音,語言,視覺和情感識別)的Web服務(wù)。
太多的東西無法匯總成一個完整的列表,但最近的一些亮點(diǎn)包括:2009年Google展示了其自動駕駛的豐田普銳斯有可能完成10次,每次100英里的旅程-使社會走上無人駕駛汽車的道路。 2011年,計算機(jī)系統(tǒng) IBM Watson贏得了美國智力競賽節(jié)目《危險!,擊敗了該節(jié)目有史以來最出色的兩位選手。為了贏得展覽,沃森使用自然語言處理和分析功能對龐大的數(shù)據(jù)存儲庫進(jìn)行了處理,從而可以回答人類提出的問題,通常只需不到一秒鐘的時間。
IBM Watson參與Jeopardy競賽!在2011年1月14日 圖片:IBM在2012年6月,顯而易見的是,機(jī)器學(xué)習(xí)系統(tǒng)在計算機(jī)視覺方面的應(yīng)用變得多么出色,而 Google培訓(xùn)了一種識別互聯(lián)網(wǎng)上最喜歡的貓的系統(tǒng)。自Watson贏得勝利以來,也許最著名的機(jī)器學(xué)習(xí)系統(tǒng)功效證明是2016年Google DeepMind AlphaGo AI擊敗了Go的人類大師之后,Go是一款古老的中國游戲,其復(fù)雜性困擾了計算機(jī)數(shù)十年。圍棋每轉(zhuǎn)大約200步,而國際象棋中只有20步。在進(jìn)行圍棋游戲的過程中,有太多可能的動作,以至于從計算的角度來看,事先搜索每個動作以找出最佳玩法的成本太高。取而代之的是,AlphaGo受到了如何玩游戲的訓(xùn)練,方法是在3000萬個Go游戲中采取人類專家的動作并將其饋入深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)。
訓(xùn)練這些深度學(xué)習(xí)網(wǎng)絡(luò)可能會花費(fèi)很長時間,隨著系統(tǒng)逐漸完善其模型以實(shí)現(xiàn)最佳結(jié)果,需要攝取和迭代大量數(shù)據(jù)。但是, 最近,Google使用AlphaGo Zero(一種對自己玩“完全隨機(jī)”游戲的系統(tǒng))改進(jìn)了訓(xùn)練過程,然后從結(jié)果中學(xué)習(xí)。在去年享有盛名的神經(jīng)信息處理系統(tǒng)(NIPS)會議上,谷歌DeepMind首席執(zhí)行官Demis Hassabis透露AlphaGo還精通了象棋和將棋游戲。 |
|
來自: 昵稱66099829 > 《待分類》