論文の概要: Gradient Based Activations for Accurate Bias-Free Learning
- arxiv url: http://arxiv.org/abs/2202.10943v1
- Date: Thu, 17 Feb 2022 00:30:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-27 17:01:08.146162
- Title: Gradient Based Activations for Accurate Bias-Free Learning
- Title(参考訳): 正確なバイアスフリー学習のための勾配に基づくアクティベーション
- Authors: Vinod K Kurmi, Rishabh Sharma, Yash Vardhan Sharma, Vinay P.
Namboodiri
- Abstract要約: このバイアス・精度のトレードオフを改善するために、偏微分器が実際に利用できることを示す。
具体的には、判別器の勾配を用いた特徴マスキング手法を用いる。
この単純なアプローチはバイアスを低減し、精度を大幅に向上させるのに有効であることを示す。
- 参考スコア(独自算出の注目度): 22.264226961225003
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Bias mitigation in machine learning models is imperative, yet challenging.
While several approaches have been proposed, one view towards mitigating bias
is through adversarial learning. A discriminator is used to identify the bias
attributes such as gender, age or race in question. This discriminator is used
adversarially to ensure that it cannot distinguish the bias attributes. The
main drawback in such a model is that it directly introduces a trade-off with
accuracy as the features that the discriminator deems to be sensitive for
discrimination of bias could be correlated with classification. In this work we
solve the problem. We show that a biased discriminator can actually be used to
improve this bias-accuracy tradeoff. Specifically, this is achieved by using a
feature masking approach using the discriminator's gradients. We ensure that
the features favoured for the bias discrimination are de-emphasized and the
unbiased features are enhanced during classification. We show that this simple
approach works well to reduce bias as well as improve accuracy significantly.
We evaluate the proposed model on standard benchmarks. We improve the accuracy
of the adversarial methods while maintaining or even improving the unbiasness
and also outperform several other recent methods.
- Abstract(参考訳): 機械学習モデルのバイアス軽減は必須だが、それでも難しい。
いくつかのアプローチが提案されているが、バイアスを緩和するための1つの視点は、逆学習である。
判別器は、問題となる性別、年齢、人種などのバイアス特性を識別するために用いられる。
この判別器は、バイアス特性を識別できないように逆向きに使用される。
このようなモデルの主な欠点は、識別器が偏見の識別に敏感であると判断する特徴が分類と相関できるため、精度のトレードオフを直接導入することである。
この仕事で私たちはその問題を解決する。
このバイアス・精度のトレードオフを改善するためにバイアス付き判別器が実際に使用できることを示す。
具体的には、判別器の勾配を用いた特徴マスキングアプローチを用いてこれを実現する。
バイアス差別に好まれる特徴が強調され、分類中に偏りのない特徴が強化されることを保証する。
この単純なアプローチはバイアスを低減し、精度を大幅に向上するために有効であることを示す。
提案モデルを標準ベンチマークで評価する。
我々は,不偏性を維持したり改善したりしながら,敵の手法の精度を向上し,また近年の手法よりも優れています。
関連論文リスト
- Unlabeled Debiasing in Downstream Tasks via Class-wise Low Variance Regularization [13.773597081543185]
本稿では,組込みのクラスワイドな分散に基づく新しいデバイアス正規化手法を提案する。
提案手法は属性ラベルを必要とせず,属性をターゲットとせず,既存のデバイアス手法の欠点に対処する。
論文 参考訳(メタデータ) (2024-09-29T03:56:50Z) - Language-guided Detection and Mitigation of Unknown Dataset Bias [23.299264313976213]
本稿では,キャプションの部分的発生に基づく事前知識のないキーワードとして潜在的なバイアスを識別する枠組みを提案する。
我々のフレームワークは、事前知識のない既存のメソッドよりも優れているだけでなく、事前知識を前提としたメソッドにさえ匹敵する。
論文 参考訳(メタデータ) (2024-06-05T03:11:33Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Mitigating Label Bias in Machine Learning: Fairness through Confident
Learning [22.031325797588476]
偏見のないラベルが潜在的なバイアスを持つエージェントによって上書きされると、識別が生じることがある。
本稿では,自信ある学習の枠組みの中で,最も公平なインスタンスをフィルタリングすることで,バイアスを排除できることを実証する。
論文 参考訳(メタデータ) (2023-12-14T08:55:38Z) - Shedding light on underrepresentation and Sampling Bias in machine
learning [0.0]
差別を分散、偏見、ノイズに分解する方法を示す。
我々は、未表現グループのサンプルを多く集めることで、識別に対処できるという、広く受け入れられている緩和アプローチに挑戦する。
論文 参考訳(メタデータ) (2023-06-08T09:34:20Z) - A Differentiable Distance Approximation for Fairer Image Classification [31.471917430653626]
我々は,AIモデルにおいて,偏りや不公平さを測定するために使用できる指標である,人口統計の分散の微分可能な近似を提案する。
我々の近似は、トレーニング中に余分なモデルを必要としない通常のトレーニング目標と共に最適化できる。
提案手法は,タスクやデータセットのさまざまなシナリオにおけるAIモデルの公平性を改善する。
論文 参考訳(メタデータ) (2022-10-09T23:02:18Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。