日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

56個(gè)機(jī)器學(xué)習(xí)詞匯表(自用)

 漢無為 2023-09-29 發(fā)布于湖北

詞匯表是關(guān)于特定主題或主題的單詞及其含義的列表。在學(xué)習(xí)機(jī)器學(xué)習(xí)時(shí),你會(huì)經(jīng)歷很多不容易記住的術(shù)語(yǔ),但如果你有一個(gè)機(jī)器學(xué)習(xí)詞匯表,它會(huì)幫助你輕松記住你不記得的術(shù)語(yǔ)的含義。

機(jī)器學(xué)習(xí)詞匯表

下面是一個(gè)機(jī)器學(xué)習(xí)詞匯表,包含所有重要的機(jī)器學(xué)習(xí)術(shù)語(yǔ),按字母順序排列:

  1. A/B testing:A/B測(cè)試意味著比較兩種技術(shù),看看哪種更有效。

  2. Accuracy:準(zhǔn)確度是真預(yù)測(cè)值與總預(yù)測(cè)值的比值。

  3. Activation Function:激活函數(shù)是決定神經(jīng)元被激活選擇的函數(shù)。

  4. Agglomerative Clustering:凝聚聚類是一種聚類算法,其中對(duì)相似實(shí)例進(jìn)行分組的過程通過在初始階段創(chuàng)建多個(gè)組開始,其中每個(gè)組包含一個(gè)實(shí)體,然后找到兩個(gè)最相似的組,合并它們,重復(fù)該過程,直到獲得最相似實(shí)例的單個(gè)組。

  5. Anomaly Detection:異常檢測(cè)意味著識(shí)別不太可能和罕見的事件。

  6. AUC:AUC代表曲線下面積。它用于測(cè)量ROC曲線下的整個(gè)面積。它顯示了機(jī)器學(xué)習(xí)模型在所有分類閾值上的性能的聚合度量。

  7. Backpropagation:反向傳播意味著基于錯(cuò)誤率微調(diào)人工神經(jīng)網(wǎng)絡(luò)的權(quán)重。它導(dǎo)致低錯(cuò)誤率,這使得模型更準(zhǔn)確。

  8. Bag of Words:?jiǎn)卧~袋是單詞的表示,其中文本被表示為一組單詞,而不管語(yǔ)法和單詞的順序。

  9. Batch:訓(xùn)練模型時(shí)迭代中使用的實(shí)例集。

  10. Batch normalization:批次標(biāo)準(zhǔn)化是對(duì)隱藏層中的激活函數(shù)的輸入和輸出進(jìn)行歸一化的過程。

  11. Batch size:批量中的實(shí)例數(shù)是模型的批量大小。

  12. BERT:BERT是Bidirectional Encoder Representations From Transformers的縮寫。它是由Google開發(fā)的自然語(yǔ)言處理任務(wù)的預(yù)訓(xùn)練模型。

  13. Binary Classification:二分類是機(jī)器學(xué)習(xí)中的分類問題之一,必須在兩個(gè)相互排斥的類之間進(jìn)行分類。

  14. Boosting:Boosting是一種增強(qiáng)弱學(xué)習(xí)者準(zhǔn)確性的方法。

  15. Bounding box:邊界框是用于標(biāo)記圖像中的參考點(diǎn)的假想框。它用于計(jì)算機(jī)視覺應(yīng)用,如物體檢測(cè)。

  16. Bucketing:Bucketing是一種用于將特征轉(zhuǎn)換為多個(gè)二進(jìn)制特征的數(shù)據(jù)預(yù)處理技術(shù)。

  17. Categorical data:分類數(shù)據(jù)表示一組離散的可能值。數(shù)據(jù)集中所有可以分組的特征都是分類變量。

  18. Centroid:由聚類算法確定的聚類中心。

  19. Class:標(biāo)簽中的值之一。

  20. Classification:分類是在兩個(gè)或多個(gè)離散類之間進(jìn)行分類的任務(wù)。

  21. Class-imbalance:當(dāng)標(biāo)簽中的類別處于不同頻率時(shí),類別不平衡是二分類問題中的一個(gè)挑戰(zhàn)。

  22. Clustering:聚類是基于相似特征識(shí)別相似實(shí)例并將其分配到集群的任務(wù)。

  23. Collaborative Filtering:協(xié)同過濾是一種由多個(gè)用戶協(xié)作形成的推薦系統(tǒng)方法。它背后的想法是向用戶推薦他們的同行所欣賞的產(chǎn)品或服務(wù)。

  24. Confusion Matrix:混淆矩陣是用于總結(jié)分類模型的性能的性能評(píng)估度量。

  25. CNN:CNN代表卷積神經(jīng)網(wǎng)絡(luò)。它由一個(gè)或多個(gè)卷積層組成,通常帶有一個(gè)子采樣層,然后是標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)中的一個(gè)或多個(gè)完全連接的層。

  26. Data analysis:數(shù)據(jù)分析是檢查和探索特定人群生成的數(shù)據(jù)以找到?jīng)Q策和得出結(jié)論所需的信息的過程。

  27. Data augmentation:數(shù)據(jù)增強(qiáng)意味著通過將相似的數(shù)據(jù)添加到已有的數(shù)據(jù)中來增加數(shù)據(jù)量。它有助于減少機(jī)器學(xué)習(xí)模型的過擬合。

  28. Decision tree:決策樹是一種算法,其通過從樹的根節(jié)點(diǎn)行進(jìn)到葉子來預(yù)測(cè)與實(shí)例相關(guān)聯(lián)的標(biāo)簽。

  29. Early stopping:提前停止是用于避免過擬合的正則化方法。

  30. Ensemble:Ensemble是多個(gè)模型所做預(yù)測(cè)的合并。

  31. Epoch:epoch表示整個(gè)訓(xùn)練數(shù)據(jù)的一個(gè)周期。

  32. False-negative rate:假陰性/假陰性+真陽(yáng)性

  33. False-positive rate:假陽(yáng)性/假陽(yáng)性+真陰性

  34. Feature engineering:特征工程是確定用于訓(xùn)練機(jī)器學(xué)習(xí)模型的最重要特征的過程。

  35. Fully connected layer:當(dāng)隱藏層中的每個(gè)節(jié)點(diǎn)都連接到后續(xù)層中的每個(gè)節(jié)點(diǎn)時(shí),它被稱為全連接層。

  36. Generalization:泛化是指機(jī)器學(xué)習(xí)模型對(duì)看不見的數(shù)據(jù)集做出正確預(yù)測(cè)的能力。

  37. Hidden layer:神經(jīng)網(wǎng)絡(luò)的輸入層和輸出層之間的層被稱為隱藏層。

  38. Image recognition:對(duì)圖像中的對(duì)象進(jìn)行分類的過程被稱為圖像識(shí)別。

  39. Input layer:輸入層是接收訓(xùn)練數(shù)據(jù)作為輸入的神經(jīng)網(wǎng)絡(luò)的第一層。

  40. K-Means:K-Means是機(jī)器學(xué)習(xí)中的一種聚類算法,可以在幾次迭代中非??焖儆行У貙?duì)未標(biāo)記的數(shù)據(jù)集進(jìn)行分組。

  41. Learning rate:在模型訓(xùn)練期間,每次迭代更新的權(quán)重的數(shù)量被稱為學(xué)習(xí)率。

  42. Linear Regression:線性回歸是一種機(jī)器學(xué)習(xí)算法,它通過使用自變量的值來預(yù)測(cè)因變量的值。

  43. Logistic Regression:邏輯回歸可以說是最簡(jiǎn)單的分類機(jī)器學(xué)習(xí)算法。它用邏輯函數(shù)擴(kuò)展線性回歸,使其適合分類。

  44. LSTM: LSTM是Long Short Term Memory的縮寫。它是一種神經(jīng)網(wǎng)絡(luò)架構(gòu),用于深度學(xué)習(xí)應(yīng)用程序中,其中數(shù)據(jù)在內(nèi)存間隙中進(jìn)行處理。

  45. Multiclass Classification:具有兩個(gè)以上類別的分類被稱為多類別分類。

  46. Normalization:標(biāo)準(zhǔn)化意味著以一種方式改變值,使它們最終處于正態(tài)分布。

  47. One-hot encoding:獨(dú)熱編碼用于產(chǎn)生長(zhǎng)度等于數(shù)據(jù)集中類別數(shù)量的向量。

  48. Overfitting:過擬合意味著機(jī)器學(xué)習(xí)模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)得非常好,但泛化效果不好。

  49. Perceptron:感知器是一種神經(jīng)網(wǎng)絡(luò)架構(gòu),最簡(jiǎn)單形式的人工神經(jīng)網(wǎng)絡(luò)類別。

  50. Pipeline:機(jī)器學(xué)習(xí)管道意味著收集數(shù)據(jù)、準(zhǔn)備數(shù)據(jù)、訓(xùn)練模型并將模型導(dǎo)出到生產(chǎn)環(huán)境。

  51. ROC:ROC代表接受者工作特征曲線。它是一個(gè)圖表,通過繪制真陽(yáng)性率和假陽(yáng)性率來顯示機(jī)器學(xué)習(xí)模型在分類問題上的性能。

  52. Test set:用于測(cè)試模型性能的數(shù)據(jù)集。

  53. Training set:用于訓(xùn)練模型的數(shù)據(jù)集。

  54. Transformer:Transformer是Google開發(fā)的一種流行的神經(jīng)網(wǎng)絡(luò)架構(gòu),可以被視為一堆注意力層。

  55. True positive rate:真陽(yáng)性/真陽(yáng)性+假陰性

  56. Underfitting:欠擬合與過擬合相反。當(dāng)模型太容易從數(shù)據(jù)的底層結(jié)構(gòu)中學(xué)習(xí)時(shí),就會(huì)發(fā)生這種情況。

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多