日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

各種分類算法的優(yōu)缺點

 亭亭如蓋矣__ 2016-08-04
本帖最后由 yutho 于 2013-8-29 23:11 編輯

各種分類算法比較

最近在學(xué)習(xí)分類算法,順便整理了各種分類算法的優(yōu)缺點。




1決策樹(Decision Trees)的優(yōu)缺點

決策樹的優(yōu)點:

一、           決策樹易于理解和解釋.人們在通過解釋后都有能力去理解決策樹所表達的意義。

二、           對于決策樹,數(shù)據(jù)的準備往往是簡單或者是不必要的.其他的技術(shù)往往要求先把數(shù)據(jù)一般化,比如去掉多余的或者空白的屬性。

三、           能夠同時處理數(shù)據(jù)型和常規(guī)型屬性。其他的技術(shù)往往要求數(shù)據(jù)屬性的單一。

四、           決策樹是一個白盒模型。如果給定一個觀察的模型,那么根據(jù)所產(chǎn)生的決策樹很容易推出相應(yīng)的邏輯表達式。

五、           易于通過靜態(tài)測試來對模型進行評測。表示有可能測量該模型的可信度。

六、          在相對短的時間內(nèi)能夠?qū)Υ笮蛿?shù)據(jù)源做出可行且效果良好的結(jié)果。

七、           可以對有許多屬性的數(shù)據(jù)集構(gòu)造決策樹。

八、           決策樹可很好地擴展到大型數(shù)據(jù)庫中,同時它的大小獨立于數(shù)據(jù)庫的大小。


決策樹的缺點:

一、           對于那些各類別樣本數(shù)量不一致的數(shù)據(jù),在決策樹當中,信息增益的結(jié)果偏向于那些具有更多數(shù)值的特征。

二、           決策樹處理缺失數(shù)據(jù)時的困難。

三、           過度擬合問題的出現(xiàn)。

四、           忽略數(shù)據(jù)集中屬性之間的相關(guān)性。



2 人工神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點

人工神經(jīng)網(wǎng)絡(luò)的優(yōu)點:分類的準確度高,并行分布處理能力強,分布存儲及學(xué)習(xí)能力強,對噪聲神經(jīng)有較強的魯棒性和容錯能力,能充分逼近復(fù)雜的非線性關(guān)系,具備聯(lián)想記憶的功能等。

人工神經(jīng)網(wǎng)絡(luò)的缺點:神經(jīng)網(wǎng)絡(luò)需要大量的參數(shù),如網(wǎng)絡(luò)拓撲結(jié)構(gòu)、權(quán)值和閾值的初始值;不能觀察之間的學(xué)習(xí)過程,輸出結(jié)果難以解釋,會影響到結(jié)果的可信度和可接受程度;學(xué)習(xí)時間過長,甚至可能達不到學(xué)習(xí)的目的。




3 遺傳算法的優(yōu)缺點

遺傳算法的優(yōu)點:

一、           與問題領(lǐng)域無關(guān)切快速隨機的搜索能力。

二、           搜索從群體出發(fā),具有潛在的并行性,可以進行多個個體的同時比較,魯棒性好。

三、           搜索使用評價函數(shù)啟發(fā),過程簡單。

四、           使用概率機制進行迭代,具有隨機性。

五、           具有可擴展性,容易與其他算法結(jié)合。


遺傳算法的缺點:

一、           遺傳算法的編程實現(xiàn)比較復(fù)雜,首先需要對問題進行編碼,找到最優(yōu)解之后還需要對問題進行解碼,

二、           另外三個算子的實現(xiàn)也有許多參數(shù),如交叉率和變異率,并且這些參數(shù)的選擇嚴重影響解的品質(zhì),而目前這些參數(shù)的選擇大部分是依靠經(jīng)驗.沒有能夠及時利用網(wǎng)絡(luò)的反饋信息,故算法的搜索速度比較慢,要得要較精確的解需要較多的訓(xùn)練時間。

三、           算法對初始種群的選擇有一定的依賴性,能夠結(jié)合一些啟發(fā)算法進行改進。



4 KNN算法(K-Nearest Neighbour) 的優(yōu)缺點

KNN算法的優(yōu)點:

一、          簡單、有效。

二、          重新訓(xùn)練的代價較低(類別體系的變化和訓(xùn)練集的變化,在Web環(huán)境和電子商務(wù)應(yīng)用中是很常見的)。

三、          計算時間和空間線性于訓(xùn)練集的規(guī)模(在一些場合不算太大)。

四、           由于KNN方法主要靠周圍有限的鄰近的樣本,而不是靠判別類域的方法來確定所屬類別的,因此對于類域的交叉或重疊較多的待分樣本集來說,KNN方法較其他方法更為適合。

五、           該算法比較適用于樣本容量比較大的類域的自動分類,而那些樣本容量較小的類域采用這種算法比較容易產(chǎn)生誤分。


KNN算法缺點:

一、           KNN算法是懶散學(xué)習(xí)方法(lazy learning,基本上不學(xué)習(xí)),一些積極學(xué)習(xí)的算法要快很多。

二、           類別評分不是規(guī)格化的(不像概率評分)。

三、           輸出的可解釋性不強,例如決策樹的可解釋性較強。

四、           該算法在分類時有個主要的不足是,當樣本不平衡時,如一個類的樣本容量很大,而其他類樣本容量很小時,有可能導(dǎo)致當輸入一個新樣本時,該樣本的K個鄰居中大容量類的樣本占多數(shù)。該算法只計算“最近的”鄰居樣本,某一類的樣本數(shù)量很大,那么或者這類樣本并不接近目標樣本,或者這類樣本很靠近目標樣本。無論怎樣,數(shù)量并不能影響運行結(jié)果??梢圆捎脵?quán)值的方法(和該樣本距離小的鄰居權(quán)值大)來改進。

五、           計算量較大。目前常用的解決方法是事先對已知樣本點進行剪輯,事先去除對分類作用不大的樣本。




5 支持向量機(SVM)的優(yōu)缺點

SVM的優(yōu)點:

一、           可以解決小樣本情況下的機器學(xué)習(xí)問題。

二、           可以提高泛化性能。

三、           可以解決高維問題。

四、           可以解決非線性問題。

五、           可以避免神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)選擇和局部極小點問題。


SVM的缺點:

一、           對缺失數(shù)據(jù)敏感。

二、           對非線性問題沒有通用解決方案,必須謹慎選擇Kernelfunction來處理。



6 樸素貝葉斯的優(yōu)缺點

優(yōu)點:

一、           樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論,有著堅實的數(shù)學(xué)基礎(chǔ),以及穩(wěn)定的分類效率。

二、           NBC模型所需估計的參數(shù)很少,對缺失數(shù)據(jù)不太敏感,算法也比較簡單。


缺點:

一、           理論上,NBC模型與其他分類方法相比具有最小的誤差率。但是實際上并非總是如此,這是因為NBC模型假設(shè)屬性之間相互獨立,這個假設(shè)在實際應(yīng)用中往往是不成立的(可以考慮用聚類算法先將相關(guān)性較大的屬性聚類),這給NBC模型的正確分類帶來了一定影響。在屬性個數(shù)比較多或者屬性之間相關(guān)性較大時,NBC模型的分類效率比不上決策樹模型。而在屬性相關(guān)性較小時,NBC模型的性能最為良好。

二、           需要知道先驗概率。

三、           分類決策存在錯誤率



7 Adaboosting方法的優(yōu)點

一、           adaboost是一種有很高精度的分類器。

二、           可以使用各種方法構(gòu)建子分類器,Adaboost算法提供的是框架。

三、           當使用簡單分類器時,計算出的結(jié)果是可以理解的。而且弱分類器構(gòu)造極其簡單。

四、           簡單,不用做特征篩選。

五、           不用擔(dān)心overfitting。



8 Rocchio的優(yōu)點

Rocchio算法的突出優(yōu)點是容易實現(xiàn),計算(訓(xùn)練和分類)特別簡單,它通常用來實現(xiàn)衡量分類系統(tǒng)性能的基準系統(tǒng),而實用的分類系統(tǒng)很少采用這種算法解決具體的分類問題。




9各種分類算法比較

根據(jù)這篇論文所得出的結(jié)論,

Calibrated boosted trees的性能最好,隨機森林第二,uncalibrated bagged trees第三,calibratedSVMs第四, uncalibrated neural nets第五。

    性能較差的是樸素貝葉斯,決策樹。

    有些算法在特定的數(shù)據(jù)集下表現(xiàn)較好。

參考文獻:


[1] 羅森林, 馬俊, 潘麗敏.數(shù)據(jù)挖掘理論與技術(shù)[M].電子工業(yè)出版社.2013.126-126

[2] 楊曉帆,陳廷槐.人工神經(jīng)網(wǎng)絡(luò)固有的優(yōu)點和缺點[J].計算機科學(xué).1994(vol.21).23-26

[3] Steve.遺傳算法的優(yōu)缺點.http://blog.sina.com.cn/s/blog_6377a3100100h1mj.html

[4] 楊建武.文本自動分類技術(shù).

www.icst.pku.edu.cn/course/mining/12-13spring/TextMining04-%E5%88%86%E7%B1%BB.pdf

[5] 白云球工作室. SVM(支持向量機)綜述.http://blog.sina.com.cn/s/blog_52574bc10100cnov.html

[6] 張夏天. 統(tǒng)計學(xué)習(xí)理論和SVM的不足(1).http://blog.sciencenet.cn/blog-230547-248821.html

[7] RichCaruana,AlexandruNiculescu-Mizil.An Empirical Comparison of Supervised LearningAlgorithms.2006




    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多