特征提取從初始的一組測量數(shù)據(jù)開始,并建立旨在提供信息和非冗余的派生值(特征),從而促進后續(xù)的學習和泛化步驟,并且在某些情況下帶來更好的可解釋性。本節(jié)主要講述2種特征提取方法:PCA主成分分析法用于特征提取、非負矩陣分解用于特征提取。 ![]() 對人臉數(shù)據(jù)集進行特征提取 PCA主成分分析法用于特征提取基本思想從一組特征中計算出一組按照重要性的大小從大到小依次排列的新特征,它們是原有特征的線性組合,并且新特征之間不相關, 我們計算出原有特征在新特征上的映射值即為新的降維后的樣本。 mlp=MLPClassifier(hidden_layer_sizes=[100,100], random_state=62, max_iter=400)mlp.fit(X_train, y_train)print('模型識別準確率:{:.2f}'.format(mlp.score(X_test, y_test)))pca = PCA(whiten=True, n_components=0.9, random_state=62).fit(X_train)X_train_whiten = pca.transform(X_train)X_test_whiten = pca.transform(X_test)print('白化后數(shù)據(jù)形態(tài):{}'.format(X_train_whiten.shape))mlp.fit(X_train_whiten, y_train)print('數(shù)據(jù)白化后模型識別準確率:{:.2f}'.format(mlp.score(X_test_whiten, y_test))) 模型識別準確率:0.55 非負矩陣分解用于特征提取非負矩陣分解是指矩陣中所有元素均為非負數(shù)約束條件之下的矩陣分解方法。
nmf處理后模型準確率:0.54 |
|