論文の概要: Towards Equal Opportunity Fairness through Adversarial Learning
- arxiv url: http://arxiv.org/abs/2203.06317v1
- Date: Sat, 12 Mar 2022 02:22:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 14:12:47.167376
- Title: Towards Equal Opportunity Fairness through Adversarial Learning
- Title(参考訳): 対人学習による平等な機会フェアネスを目指して
- Authors: Xudong Han, Timothy Baldwin, Trevor Cohn
- Abstract要約: 逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
- 参考スコア(独自算出の注目度): 64.45845091719002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial training is a common approach for bias mitigation in natural
language processing. Although most work on debiasing is motivated by equal
opportunity, it is not explicitly captured in standard adversarial training. In
this paper, we propose an augmented discriminator for adversarial training,
which takes the target class as input to create richer features and more
explicitly model equal opportunity. Experimental results over two datasets show
that our method substantially improves over standard adversarial debiasing
methods, in terms of the performance--fairness trade-off.
- Abstract(参考訳): 逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
デバイアスに関するほとんどの作業は平等な機会によって動機づけられているが、標準的な敵の訓練では明確に捉えられていない。
本稿では,よりリッチな特徴を生み出すために対象クラスを入力とし,より明確な機会のモデル化を行う,対人訓練のための拡張判別器を提案する。
2つのデータセットに対する実験結果から,本手法は性能-公正トレードオフの観点から,標準的な逆偏差法よりも大幅に改善されていることが示された。
関連論文リスト
- Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Fair Inference for Discrete Latent Variable Models [12.558187319452657]
デュエルケアなしでデータに基づいて訓練された機械学習モデルは、特定の人口に対して不公平で差別的な行動を示すことが多い。
本研究では,変動分布に公平なペナルティを含む離散潜伏変数に対して,公平な変分推論手法を開発した。
提案手法の一般化と実世界への影響の可能性を示すため,刑事司法リスク評価のための特別目的グラフィカルモデルを構築した。
論文 参考訳(メタデータ) (2022-09-15T04:54:21Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - Diverse Adversaries for Mitigating Bias in Training [58.201275105195485]
本研究では,多種多様判別器を用いた対人学習の新たなアプローチを提案する。
実験の結果,本手法は従来の逆転除去法よりも大幅に改善された。
論文 参考訳(メタデータ) (2021-01-25T10:35:13Z) - Towards Accuracy-Fairness Paradox: Adversarial Example-based Data
Augmentation for Visual Debiasing [15.689539491203373]
機械学習の公平性は、ターゲットタスクに対処する際に、特定の保護された、または機密性の高いグループに対するバイアスを懸念する。
本稿では,画像分類タスクの文脈におけるバイアス問題について検討する。
論文 参考訳(メタデータ) (2020-07-27T15:17:52Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。