論文の概要: Fairness via Representation Neutralization
- arxiv url: http://arxiv.org/abs/2106.12674v1
- Date: Wed, 23 Jun 2021 22:26:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-26 08:46:05.146439
- Title: Fairness via Representation Neutralization
- Title(参考訳): 表現中立化による公正性
- Authors: Mengnan Du, Subhabrata Mukherjee, Guanchu Wang, Ruixiang Tang, Ahmed
Hassan Awadallah, Xia Hu
- Abstract要約: フェアネスのための表現中立化(Representation Neutralization for Fairness, RNF)という新たな緩和手法を提案する。
RNFは、DNNモデルのタスク固有の分類ヘッダのみをデバイアスすることで、その公平性を達成する。
複数のベンチマークデータセットに対する実験結果は、DNNモデルの識別を効果的に削減するRNFフレームワークを実証している。
- 参考スコア(独自算出の注目度): 60.90373932844308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing bias mitigation methods for DNN models primarily work on learning
debiased encoders. This process not only requires a lot of instance-level
annotations for sensitive attributes, it also does not guarantee that all
fairness sensitive information has been removed from the encoder. To address
these limitations, we explore the following research question: Can we reduce
the discrimination of DNN models by only debiasing the classification head,
even with biased representations as inputs? To this end, we propose a new
mitigation technique, namely, Representation Neutralization for Fairness (RNF)
that achieves fairness by debiasing only the task-specific classification head
of DNN models. To this end, we leverage samples with the same ground-truth
label but different sensitive attributes, and use their neutralized
representations to train the classification head of the DNN model. The key idea
of RNF is to discourage the classification head from capturing spurious
correlation between fairness sensitive information in encoder representations
with specific class labels. To address low-resource settings with no access to
sensitive attribute annotations, we leverage a bias-amplified model to generate
proxy annotations for sensitive attributes. Experimental results over several
benchmark datasets demonstrate our RNF framework to effectively reduce
discrimination of DNN models with minimal degradation in task-specific
performance.
- Abstract(参考訳): DNNモデルの既存のバイアス軽減手法は、主にデバイアスエンコーダの学習に取り組んでいる。
このプロセスは、センシティブな属性に対して多くのインスタンスレベルのアノテーションを必要とするだけでなく、すべての公平さに敏感な情報がエンコーダから削除されたことを保証しません。
これらの制限に対処するために、我々は以下の研究課題を探求する: DNNモデルの識別は、入力として偏りのある表現であっても、分類ヘッドを乱すだけで抑えられるか?
そこで本研究では,DNNモデルのタスク固有分類先頭のみを曖昧にすることで,公平性を実現するための表現中立化(Representation Neutralization for Fairness, RNF)を提案する。
そこで我々は,DNNモデルの分類ヘッドをトレーニングするために,同一の地下構造ラベルを持つサンプルを,異なる感度特性で利用し,その中性表現を用いて評価する。
RNFの鍵となる考え方は、特定のクラスラベルを持つエンコーダ表現において、公平さに敏感な情報間の素早い相関を捉えないようにすることである。
機密属性アノテーションにアクセスせずに低リソース設定に対処するため、バイアス増幅モデルを用いて機密属性のプロキシアノテーションを生成する。
複数のベンチマークデータセットに対する実験結果は、タスク固有の性能の低下を最小限に抑えつつ、DNNモデルの識別を効果的に削減するRNFフレームワークを実証している。
関連論文リスト
- MAPPING: Debiasing Graph Neural Networks for Fair Node Classification
with Limited Sensitive Information Leakage [1.8238848494579714]
公正ノード分類のためのモデルに依存しない新しい脱バイアスフレームワーク MAPPing を提案する。
以上の結果から,MAPPingは実用性と公正性,および機密情報漏洩のプライバシーリスクとのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2024-01-23T14:59:46Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - TaCo: Targeted Concept Erasure Prevents Non-Linear Classifiers From Detecting Protected Attributes [4.2560452339165895]
Targeted Concept Erasure (TaCo)は、最後の潜伏表現から機密情報を除去する新しいアプローチである。
実験の結果,TaCoは最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-11T16:22:37Z) - Self-supervised debiasing using low rank regularization [59.84695042540525]
純粋な相関は、ディープニューラルネットワークの強いバイアスを引き起こし、一般化能力を損なう可能性がある。
ラベルのないサンプルと互換性のある自己監督型脱バイアスフレームワークを提案する。
注目すべきは,提案フレームワークが自己教師付き学習ベースラインの一般化性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-10-11T08:26:19Z) - Mitigating Algorithmic Bias with Limited Annotations [65.060639928772]
機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-07-20T16:31:19Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - EqGNN: Equalized Node Opportunity in Graphs [19.64827998759028]
グラフニューラルネットワーク(GNN)は、グラフ内の教師あり学習タスクに広く利用されている。
微妙な属性を無視したり、公正性の統計パリティの基準を最適化する人もいる。
等化オッズフェアネス基準の概念に対して,表現の最適化を可能にするGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-19T17:17:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。