日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

Python sklearn模型選擇

 LibraryPKU 2019-07-21

重磅干貨,第一時間送達(dá)

作者:遺墨塵 

 https://blog.csdn.net/finafily0526/article/details/79318401

1.主要功能如下:

1.classification分類
2.Regression回歸
3.Clustering聚類
4.Dimensionality reduction降維
5.Model selection模型選擇
6.Preprocessing預(yù)處理

2.主要模塊分類:

1.sklearn.base: Base classes and utility function基礎(chǔ)實(shí)用函數(shù)
2.sklearn.cluster: Clustering聚類
3.sklearn.cluster.bicluster: Biclustering 雙向聚類
4.sklearn.covariance: Covariance Estimators 協(xié)方差估計
5.sklearn.model_selection: Model Selection 模型選擇
6.sklearn.datasets: Datasets 數(shù)據(jù)集
7.sklearn.decomposition: Matrix Decomposition 矩陣分解
8.sklearn.dummy: Dummy estimators 虛擬估計
9.sklearn.ensemble: Ensemble Methods 集成方法
10.sklearn.exceptions: Exceptions and warnings 異常和警告
11.sklearn.feature_extraction: Feature Extraction 特征抽取
12.sklearn.feature_selection: Feature Selection 特征選擇
13。sklearn.gaussian_process: Gaussian Processes 高斯過程
14.sklearn.isotonic: Isotonic regression 保序回歸
15.sklearn.kernel_approximation: Kernel Approximation 核 逼近
16.sklearn.kernel_ridge: Kernel Ridge Regression 嶺回歸ridge
17.sklearn.discriminant_analysis: Discriminant Analysis 判別分析
18.sklearn.linear_model: Generalized Linear Models 廣義線性模型
19.sklearn.manifold: Manifold Learning 流形學(xué)習(xí)
20.sklearn.metrics: Metrics 度量 權(quán)值
21.sklearn.mixture: Gaussian Mixture Models 高斯混合模型
22.sklearn.multiclass: Multiclass and multilabel classification 多等級標(biāo)簽分類
23.sklearn.multioutput: Multioutput regression and classification 多元回歸和分類
24.sklearn.naive_bayes: Naive Bayes 樸素貝葉斯
25.sklearn.neighbors: Nearest Neighbors 最近鄰
26.sklearn.neural_network: Neural network models 神經(jīng)網(wǎng)絡(luò)
27.sklearn.calibration: Probability Calibration 概率校準(zhǔn)
28.sklearn.cross_decomposition: Cross decomposition 交叉求解
29.sklearn.pipeline: Pipeline 管道
30.sklearn.preprocessing: Preprocessing and Normalization 預(yù)處理和標(biāo)準(zhǔn)化
31.sklearn.random_projection: Random projection 隨機(jī)映射
32.sklearn.semi_supervised: Semi-Supervised Learning 半監(jiān)督學(xué)習(xí)
33.sklearn.svm: Support Vector Machines 支持向量機(jī)
34.sklearn.tree: Decision Tree 決策樹
35.sklearn.utils: Utilities 實(shí)用工具

3.數(shù)據(jù)預(yù)處理:

from sklearn import preprocessing
  • 標(biāo)準(zhǔn)化處理函數(shù)

將數(shù)據(jù)轉(zhuǎn)化為標(biāo)準(zhǔn)正態(tài)分布(均值為0,方差為1)

preprocessing.scale(X,axis=0, with_mean=True, with_std=True, copy=True)

將數(shù)據(jù)在縮放在固定區(qū)間,默認(rèn)縮放到區(qū)間 [0, 1]

preprocessing.minmax_scale(X,feature_range=(0, 1), axis=0, copy=True)

數(shù)據(jù)的縮放比例為絕對值最大值,并保留正負(fù)號,即在區(qū)間 [-1.0, 1.0] 內(nèi)。唯一可用于稀疏數(shù)據(jù) scipy.sparse的標(biāo)準(zhǔn)化

preprocessing.maxabs_scale(X,axis=0, copy=True)

通過 Interquartile Range (IQR) 標(biāo)準(zhǔn)化數(shù)據(jù),即四分之一和四分之三分位點(diǎn)之間

preprocessing.robust_scale(X,axis=0, with_centering=True, with_scaling=True,copy=True)
  • 標(biāo)準(zhǔn)化正態(tài)分布類

基于mean和std的標(biāo)準(zhǔn)化

   classpreprocessing.StandardScaler(copy=True, with_mean=True,with_std=True)
# 屬性:
# scale_:ndarray,縮放比例
# mean_:ndarray,均值
# var_:ndarray,方差
# n_samples_seen_:int,已處理的樣本個數(shù),調(diào)用partial_fit()時會累加,調(diào)用fit()會重設(shè)
# 這里可以根據(jù)訓(xùn)練集進(jìn)行標(biāo)準(zhǔn)化,測試集沿用訓(xùn)練集的標(biāo)準(zhǔn)化方法!
scaler = preprocessing.StandardScaler().fit(train_data)
scaler.transform(train_data)
scaler.transform(test_data)
# 將每個特征值歸一化到一個固定范圍
scaler = preprocessing.MinMaxScaler(feature_range=(0, 1)).fit(train_data)
scaler.transform(train_data)
scaler.transform(test_data)

將數(shù)據(jù)在縮放在固定區(qū)間的類,默認(rèn)縮放到區(qū)間 [0, 1]

classpreprocessing.MinMaxScaler(feature_range=(0, 1),copy=True):
# 屬性:
# min_:ndarray,縮放后的最小值偏移量
# scale_:ndarray,縮放比例
# data_min_:ndarray,數(shù)據(jù)最小值
# data_max_:ndarray,數(shù)據(jù)最大值
# data_range_:ndarray,數(shù)據(jù)最大最小范圍的長度

數(shù)據(jù)的縮放比例為絕對值最大值,并保留正負(fù)號,即在區(qū)間 [-1.0, 1.0] 內(nèi)??梢杂糜谙∈钄?shù)據(jù)scipy.sparse

classpreprocessing.MaxAbsScaler(copy=True):
# 屬性:
# scale_:ndarray,縮放比例
# max_abs_:ndarray,絕對值最大值
# n_samples_seen_:int,已處理的樣本個數(shù)

通過 Interquartile Range (IQR) 標(biāo)準(zhǔn)化數(shù)據(jù),即四分之一和四分之三分位點(diǎn)之間

classpreprocessing.RobustScaler(with_centering=True,with_scaling=True, copy=True):
# 屬性:
# center_:ndarray,中心點(diǎn)
# scale_:ndarray,縮放比例

生成 kernel 矩陣,用于將 svm kernel 的數(shù)據(jù)標(biāo)準(zhǔn)化

classpreprocessing.KernelCenterer:

以上幾個標(biāo)準(zhǔn)化類的方法:

  • fit(X[,y]):根據(jù)數(shù)據(jù) X 的值,設(shè)置標(biāo)準(zhǔn)化縮放的比例
    transform(X[,y, copy]):用之前設(shè)置的比例標(biāo)準(zhǔn)化 X
    fit_transform(X[, y]):根據(jù) X設(shè)置標(biāo)準(zhǔn)化縮放比例并標(biāo)準(zhǔn)化
    partial_fit(X[,y]):累加性的計算縮放比例
    inverse_transform(X[,copy]):將標(biāo)準(zhǔn)化后的數(shù)據(jù)轉(zhuǎn)換成原數(shù)據(jù)比例
    get_params([deep]):獲取參數(shù)
    set_params(**params):設(shè)置參數(shù)

正則化

    # 計算兩個樣本的相似度時必不可少的一個操作,就是正則化。其思想是:首先求出樣本的p-范數(shù),然后該樣本的所有元素都要除以該范數(shù),這樣最終使得每個樣本的范數(shù)都為1。
# L1 norm 是指對每個樣本的每一個元素都除以該樣本的L1范數(shù). 使行和為1
# eg. 0.47619048 = 10 /(10+4+5+2)
X = np.array([[10,4,5,2], [1,4,5,7]])
X_normalized = preprocessing.normalize(X, norm='l1')
X_normalized
array([[ 0.47619048, 0.19047619, 0.23809524, 0.0952381 ],
[ 0.05882353, 0.23529412, 0.29411765, 0.41176471]])

#L2 norm 是指對每個樣本的每一個元素都除以該樣本的L2范數(shù).
# eg. 0.4 = 1/sqrt(1+1+4)
X = [[ 1., -1., 2.],
[ 2., 0., 0.],
[ 0., 1., -1.]]
X_normalized = preprocessing.normalize(X, norm='l2')

X_normalized
array([[ 0.40, -0.40, 0.81],
[ 1. , 0. , 0. ],
[ 0. , 0.70, -0.70]])

4.數(shù)據(jù)集:

將數(shù)據(jù)集分為訓(xùn)練集和測試集

from sklearn.mode_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)
# arrays:樣本數(shù)組,包含特征向量和標(biāo)簽
# test_size:
#  float-獲得多大比重的測試樣本 (默認(rèn):0.25)
#  int - 獲得多少個測試樣本
# train_size: 同test_size
# random_state: int - 隨機(jī)種子(種子固定,實(shí)驗(yàn)可復(fù)現(xiàn))
# shuffle - 是否在分割之前對數(shù)據(jù)進(jìn)行洗牌(默認(rèn)True)

5.模型選擇:

模型流程:

# 擬合模型
model.fit(X_train, y_train)

# 模型預(yù)測
model.predict(X_test)

# 獲得這個模型的參數(shù)
model.get_params()

# 為模型進(jìn)行打分
model.score(data_X, data_y)

線性回歸

from sklearn.linear_model import LinearRegression
# 定義線性回歸模型
model = LinearRegression(fit_intercept=True, normalize=False, copy_X=True, n_jobs=1)
'''
fit_intercept:是否計算截距。False-模型沒有截距

normalize:當(dāng)fit_intercept設(shè)置為False時,該參數(shù)將被忽略。如果為真,則回歸前的回歸系數(shù)X將通過減去平均值并除以l2-范數(shù)而歸一化。

n_jobs:指定線程數(shù)
'''

邏輯回歸

from sklearn.linear_model import LogisticRegression
# 定義邏輯回歸模型
model = LogisticRegression(penalty=’l2’, dual=False, tol=0.0001, C=1.0,
fit_intercept=True, intercept_scaling=1, class_weight=None,
random_state=None, solver=’liblinear’, max_iter=100, multi_class=’ovr’,
verbose=0, warm_start=False, n_jobs=1)
penalty:使用指定正則化項(xiàng)(默認(rèn):l2)
dual: n_samples > n_features取False(默認(rèn))
C:正則化強(qiáng)度的反,值越小正則化強(qiáng)度越大
n_jobs: 指定線程數(shù)
random_state:隨機(jī)數(shù)生成器
fit_intercept: 是否需要常量

樸素貝葉斯

from sklearn import naive_bayes
model = naive_bayes.GaussianNB()
model = naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None)
model = naive_bayes.BernoulliNB(alpha=1.0, binarize=0.0, fit_prior=True, class_prior=None)
'''

alpha:平滑參數(shù)
fit_prior:是否要學(xué)習(xí)類的先驗(yàn)概率;false-使用統(tǒng)一的先驗(yàn)概率
class_prior: 是否指定類的先驗(yàn)概率;若指定則不能根據(jù)參數(shù)調(diào)整
binarize: 二值化的閾值,若為None,則假設(shè)輸入由二進(jìn)制向量組成
'''

決策樹

from sklearn import tree
model = tree.DecisionTreeClassifier(criterion=’gini’, max_depth=None,
min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0,
max_features=None, random_state=None, max_leaf_nodes=None,
min_impurity_decrease=0.0, min_impurity_split=None,
class_weight=None, presort=False)
'''
criterion :特征選擇準(zhǔn)則gini/entropy
max_depth:樹的最大深度,None-盡量下分
min_samples_split:分裂內(nèi)部節(jié)點(diǎn),所需要的最小樣本樹
min_samples_leaf:葉子節(jié)點(diǎn)所需要的最小樣本數(shù)
max_features: 尋找最優(yōu)分割點(diǎn)時的最大特征數(shù)
max_leaf_nodes:優(yōu)先增長到最大葉子節(jié)點(diǎn)數(shù)
min_impurity_decrease:如果這種分離導(dǎo)致雜質(zhì)的減少大于或等于這個值,則節(jié)點(diǎn)將被拆分。
'''

支持向量機(jī)SVM

from sklearn.svm import SVC
model = SVC(C=1.0, kernel=’rbf’, gamma=’auto’)
'''
C:誤差項(xiàng)的懲罰參數(shù)C
gamma: 核相關(guān)系數(shù)。浮點(diǎn)數(shù),If gamma is ‘a(chǎn)uto’ then 1/n_features will be used instead.
'''

knn最近鄰算法

    from sklearn import neighbors
#定義kNN分類模型
model = neighbors.KNeighborsClassifier(n_neighbors=5, n_jobs=1) # 分類
model = neighbors.KNeighborsRegressor(n_neighbors=5, n_jobs=1) # 回歸
'''
n_neighbors:使用鄰居的數(shù)目
n_jobs:并行任務(wù)數(shù)
'''

多層感知器

from sklearn.neural_network import MLPClassifier
# 定義多層感知機(jī)分類算法
model = MLPClassifier(activation='relu', solver='adam', alpha=0.0001)
'''
hidden_layer_sizes: 元祖
activation:激活函數(shù)
solver :優(yōu)化算法{‘lbfgs’, ‘sgd’, ‘a(chǎn)dam’}
alpha:L2懲罰(正則化項(xiàng))參數(shù)。
'''

交叉驗(yàn)證

    from sklearn.model_selection import cross_val_score
cross_val_score(model, X, y=None, scoring=None, cv=None, n_jobs=1)
'''
model:擬合數(shù)據(jù)的模型
cv :k-fold
scoring: 打分參數(shù)-‘a(chǎn)ccuracy’、‘f1’、‘precision’、‘recall’ 、‘roc_auc’、'neg_log_loss'等等
'''

檢驗(yàn)曲線

from sklearn.model_selection import validation_curve
train_score, test_score = validation_curve(model, X, y, param_name, param_range, cv=None, scoring=None, n_jobs=1)
'''
model:用于fit和predict的對象
X, y: 訓(xùn)練集的特征和標(biāo)簽
param_name:將被改變的參數(shù)的名字
param_range:參數(shù)的改變范圍
cv:k-fold

'''

6.模型保存:

    # 保存為pickle文件
import pickle

# 保存模型
with open('model.pickle', 'wb') as f:
pickle.dump(model, f)

# 讀取模型
with open('model.pickle', 'rb') as f:
model = pickle.load(f)
model.predict(X_test)
# sklearn自帶方法joblib
from sklearn.externals import joblib

# 保存模型
joblib.dump(model, 'model.pickle')

#載入模型
model = joblib.load('model.pickle')

/打卡話題/

sklearn用的多嗎?

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多