日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

機(jī)器學(xué)習(xí)模型:緩解偏差

 萬皇之皇 2019-08-13
在這篇文章中,你將了解在機(jī)器學(xué)習(xí)模型開發(fā)生命周期(MDLC)中應(yīng)用的一些緩解偏差的策略,以實(shí)現(xiàn)偏差感知機(jī)器學(xué)習(xí)模型,我們主要目標(biāo)是實(shí)現(xiàn)更高精度的模型,同時(shí)確保模型與敏感/受保護(hù)屬性相比具有較小的判別性。簡單來說,分類器的輸出不應(yīng)與受保護(hù)或敏感屬性相關(guān)聯(lián)。構(gòu)建這樣的ML模型成為多目標(biāo)優(yōu)化問題。分類器的質(zhì)量是通過其準(zhǔn)確性和基于敏感屬性的偏差來衡量的; 更準(zhǔn)確,更好,更少判別(基于敏感屬性)越好。以下是一些偏差緩解方法:
  • 預(yù)處理算法
  • 處理(中)算法
  • 后處理算法
以下是表示機(jī)器學(xué)習(xí)模型的偏差緩解策略的圖表:

預(yù)處理算法

預(yù)處理算法用于減輕訓(xùn)練數(shù)據(jù)中普遍存在的偏差。該想法是應(yīng)用以下技術(shù)之一來預(yù)處理訓(xùn)練數(shù)據(jù)集,然后應(yīng)用分類算法來學(xué)習(xí)適當(dāng)?shù)姆诸惼鳌?/span>
  • Reweighing重新加權(quán)是一種數(shù)據(jù)預(yù)處理技術(shù),建議為每個(gè)(組,標(biāo)簽)組合中的訓(xùn)練樣例生成權(quán)重,以確保分類前的公平性。我們的想法是將適當(dāng)?shù)臋?quán)重應(yīng)用于訓(xùn)練數(shù)據(jù)集中的不同元組,以使訓(xùn)練數(shù)據(jù)集在敏感屬性方面免于區(qū)分。除了重新稱重之外,還可以應(yīng)用技術(shù)(非偏差約束),例如抑制(移除敏感屬性)或按數(shù)據(jù)集 - 修改標(biāo)簽(適當(dāng)?shù)馗臉?biāo)簽以消除對(duì)訓(xùn)練數(shù)據(jù)的偏差)。

  • Optimized preprocessing我們的想法是學(xué)習(xí)概率轉(zhuǎn)換,利用組公平性,個(gè)體失真和數(shù)據(jù)保真度約束和目標(biāo)來編輯數(shù)據(jù)中的特征和標(biāo)簽。

  •  Learning fair representations:我們的想法是找到一個(gè)潛在的表示,它可以很好地編碼數(shù)據(jù),同時(shí)模糊有關(guān)受保護(hù)屬性的信息。

  • Disparate impact remover:對(duì)特征值進(jìn)行適當(dāng)編輯,以提高組的公平性,同時(shí)保持組內(nèi)的排序。

處理(中)算法

  • Adversarial Debiasing學(xué)習(xí)分類器模型以最大化預(yù)測準(zhǔn)確性,同時(shí)降低對(duì)手從預(yù)測中確定受保護(hù)屬性的能力。這種方法導(dǎo)致公平的分類器,因?yàn)轭A(yù)測不能攜帶對(duì)象可以利用偏差信息。

  • Prejudice remover這個(gè)想法是為學(xué)習(xí)目標(biāo)增加一個(gè)偏差意識(shí)的正規(guī)化術(shù)語。

后處理算法

  • Equalized odds postprocessing該算法解決線性程序以找到改變輸出標(biāo)簽以優(yōu)化均衡概率。

  • Calibrated equalized odds postprocessing:算法優(yōu)化校準(zhǔn)的分類器得分輸出,以找到用均衡的目標(biāo)改變輸出標(biāo)簽的概率。

  • Reject option classification:這個(gè)想法是給予無特權(quán)群體有利的結(jié)果,并對(duì)具有最高不確定性的決策邊界周圍的置信區(qū)內(nèi)的特權(quán)群體產(chǎn)生不利結(jié)果。

結(jié)語

在這篇文章中,使你了解了偏差緩解策略,以構(gòu)建性能更高的模型,同時(shí)確保模型具有較小的判別性。本文中介紹的技術(shù)將根據(jù)正在進(jìn)行的研究定期更新。

參考

  • AI Fairness 360
    https://link./content/pdf/10.1007%2Fs10115-011-0463-8.pdf

  • Data pre-processing techniques for classification without discriminationhttps:///pdf/1810.01943.pdf


    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多