論文の概要: Optimising Equal Opportunity Fairness in Model Training
- arxiv url: http://arxiv.org/abs/2205.02393v1
- Date: Thu, 5 May 2022 01:57:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 13:55:39.491051
- Title: Optimising Equal Opportunity Fairness in Model Training
- Title(参考訳): モデルトレーニングにおける等機会公平性の最適化
- Authors: Aili Shen, Xudong Han, Trevor Cohn, Timothy Baldwin, Lea Frermann
- Abstract要約: 既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
- 参考スコア(独自算出の注目度): 60.0947291284978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world datasets often encode stereotypes and societal biases. Such biases
can be implicitly captured by trained models, leading to biased predictions and
exacerbating existing societal preconceptions. Existing debiasing methods, such
as adversarial training and removing protected information from
representations, have been shown to reduce bias. However, a disconnect between
fairness criteria and training objectives makes it difficult to reason
theoretically about the effectiveness of different techniques. In this work, we
propose two novel training objectives which directly optimise for the
widely-used criterion of {\it equal opportunity}, and show that they are
effective in reducing bias while maintaining high performance over two
classification tasks.
- Abstract(参考訳): 現実世界のデータセットは、しばしばステレオタイプや社会バイアスを符号化する。
このようなバイアスは訓練されたモデルによって暗黙的に捉えられ、バイアスのある予測と既存の社会的先入観の悪化につながる。
敵対的なトレーニングや表現から保護された情報を取り除くといった既存のデバイアス手法は、バイアスを減らすことが示されている。
しかし,フェアネス基準とトレーニング目標の分離は,異なる手法の有効性を理論的に判断することが困難である。
本研究では,広く使用されている「機会平等」の基準を直接最適化する2つの新しい学習目標を提案し,2つの分類タスクにおいて高い性能を維持しつつバイアス低減に効果的であることを示す。
関連論文リスト
- Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Language Models Get a Gender Makeover: Mitigating Gender Bias with
Few-Shot Data Interventions [50.67412723291881]
事前訓練された大きな言語モデルに存在する社会的バイアスが重要な問題である。
我々は,事前学習モデルにおける性別バイアスを低減するために,データ介入戦略を強力かつ簡単な手法として提案する。
論文 参考訳(メタデータ) (2023-06-07T16:50:03Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - A Differentiable Distance Approximation for Fairer Image Classification [31.471917430653626]
我々は,AIモデルにおいて,偏りや不公平さを測定するために使用できる指標である,人口統計の分散の微分可能な近似を提案する。
我々の近似は、トレーニング中に余分なモデルを必要としない通常のトレーニング目標と共に最適化できる。
提案手法は,タスクやデータセットのさまざまなシナリオにおけるAIモデルの公平性を改善する。
論文 参考訳(メタデータ) (2022-10-09T23:02:18Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - Towards Accuracy-Fairness Paradox: Adversarial Example-based Data
Augmentation for Visual Debiasing [15.689539491203373]
機械学習の公平性は、ターゲットタスクに対処する際に、特定の保護された、または機密性の高いグループに対するバイアスを懸念する。
本稿では,画像分類タスクの文脈におけるバイアス問題について検討する。
論文 参考訳(メタデータ) (2020-07-27T15:17:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。