訂閱
糾錯(cuò)
加入自媒體

如何給工業(yè)大數(shù)據(jù)降維去噪 你可以試試特征選擇

在之前格物匯的文章中,我們介紹了特征構(gòu)建的幾種常用方法。特征構(gòu)建是一種升維操作,針對(duì)特征解釋能力不足,可以通過特征構(gòu)建的方法來增加特征解釋力,從而提升模型效果。隨著近幾年大數(shù)據(jù)技術(shù)的普及,我們可以獲取海量數(shù)據(jù),但是這些海量數(shù)據(jù)帶給我們更多信息的同時(shí),也帶來了更多的噪音和異常數(shù)據(jù)。如何降維去噪成為很多企業(yè)關(guān)注的焦點(diǎn),今天我們將介紹特征工程中的一種降維方法——特征選擇。

什么是特征選擇

特征選擇( Feature Selection )也稱特征子集選擇( FeatureSubset Selection , FSS ),或屬性選擇( Attribute Selection )。是指從已有的N個(gè)特征(Feature)中選擇M個(gè)特征使得系統(tǒng)的特定指標(biāo)最優(yōu)化。

特征選擇主要有兩個(gè)功能

減少特征數(shù)量、降維,使模型泛化能力更強(qiáng),減少過擬合

增強(qiáng)對(duì)特征和特征值之間的理解

特征選擇的流程

特征選擇的目標(biāo)是尋找一個(gè)能夠有效識(shí)別目標(biāo)的最小特征子集。尋找的一般流程可用下圖表示:

一般來說,通過枚舉來對(duì)特征子集進(jìn)行選擇是一個(gè)比較費(fèi)時(shí)的步驟,所以應(yīng)使用一些策略來進(jìn)行特征選擇,通常來說,我們會(huì)從兩個(gè)方面考慮來選擇特征:

>特征是否發(fā)散

如果一個(gè)特征不發(fā)散,例如方差接近于0,也就是說樣本在這個(gè)特征上基本上沒有差異,這個(gè)特征對(duì)于樣本的區(qū)分并沒有什么用。

>特征與目標(biāo)的相關(guān)性

這點(diǎn)比較顯見,與目標(biāo)相關(guān)性高的特征,應(yīng)當(dāng)優(yōu)選選擇。除方差法外,本文介紹的其他方法均從相關(guān)性考慮。

根據(jù)特征選擇的形式又可以將特征選擇方法分為3種:

Filter

Wrapper

Embedded

特征選擇的方法

1、Filter

過濾法,按照發(fā)散性或者相關(guān)性對(duì)各個(gè)特征進(jìn)行評(píng)分,設(shè)定閾值或者待選擇閾值的個(gè)數(shù),選擇特征。

評(píng)分指標(biāo)有:

方差:評(píng)價(jià)指標(biāo)的離散程度,越離散說明包含的信息越多。

相關(guān)性:衡量特征對(duì)目標(biāo)的解釋能力,相關(guān)系數(shù)越大說明解釋能力越強(qiáng)。

卡方檢驗(yàn):檢驗(yàn)定性自變量對(duì)定性因變量的相關(guān)性。

互信息:也是評(píng)價(jià)定性自變量對(duì)定性因變量的相關(guān)性的。

2、Wrapper

包裝法,根據(jù)目標(biāo)函數(shù)(通常是預(yù)測效果)評(píng)分,每次選擇若干特征,或者排除若干特征,主要的方法是遞歸特征消除法。遞歸消除特征法使用一個(gè)基模型來進(jìn)行多輪訓(xùn)練,每輪訓(xùn)練后,減少若干特征,或者新增若干特征,進(jìn)行評(píng)估看新增的特征是否需要保留,剔除的特征是否需要還原。最后再基于新的特征集進(jìn)行下一輪訓(xùn)練。

3、Embedded

嵌入法,先使用某些機(jī)器學(xué)習(xí)的算法和模型進(jìn)行訓(xùn)練,得到各個(gè)特征的權(quán)值系數(shù),根據(jù)系數(shù)從大到小選擇特征。類似于Filter方法,但是是通過訓(xùn)練來確定特征的優(yōu)劣。

一般分為如下兩大類:

>基于懲罰項(xiàng)的特征選擇法

這個(gè)方法可以用線性回歸模型來舉例說明,我們?cè)诰性模型的目標(biāo)函數(shù)中增加L1正則項(xiàng)(實(shí)際上這就是lasso模型)。由于該正則項(xiàng)的存在,某些與目標(biāo)y不太相關(guān)的特征的系數(shù)將縮減至0,而保留的特征系數(shù)將相應(yīng)調(diào)整,從而達(dá)到了對(duì)特征進(jìn)行篩選的效果,L1正則項(xiàng)系數(shù)越大,篩選的力度也就越大。

>基于樹模型的特征選擇法

在我們之前的文章中介紹過隨機(jī)森林,GDBT等等基于樹的模型,他們均有一個(gè)特點(diǎn)就是模型可以計(jì)算出特征的重要性。決策樹會(huì)優(yōu)先將對(duì)預(yù)測目標(biāo)y幫助最大的特征放在模型的頂端,因此根據(jù)這個(gè)效果我們計(jì)算得到特征的重要性,進(jìn)而我們可以根據(jù)特征重要性對(duì)特征進(jìn)行選擇。

今天我們大致了解了如何給工業(yè)大數(shù)據(jù)降維去噪,進(jìn)行特征選擇,在后續(xù)文章中,我們將繼續(xù)帶大家了解特征工程的另一個(gè)內(nèi)容——特征抽取,敬請(qǐng)期待。

本文作者:格創(chuàng)東智OT團(tuán)隊(duì) (轉(zhuǎn)載請(qǐng)注明來源及作者)

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)