論文の概要: Adversarial Reweighting Guided by Wasserstein Distance for Bias
Mitigation
- arxiv url: http://arxiv.org/abs/2311.12684v1
- Date: Tue, 21 Nov 2023 15:46:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 00:05:24.640628
- Title: Adversarial Reweighting Guided by Wasserstein Distance for Bias
Mitigation
- Title(参考訳): 偏り緩和のためのwasserstein距離による敵対的重み付け
- Authors: Xuan Zhao and Simone Fabbrizzi and Paula Reyero Lobo and Siamak Ghodsi
and Klaus Broelemann and Steffen Staab and Gjergji Kasneci
- Abstract要約: データ中のマイノリティの下位表現は、学習中のサブポピュレーションの異なる扱いを困難にしている。
本稿では,このような表現バイアスに対処する新たな逆方向再重み付け手法を提案する。
- 参考スコア(独自算出の注目度): 24.160692009892088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The unequal representation of different groups in a sample population can
lead to discrimination of minority groups when machine learning models make
automated decisions. To address these issues, fairness-aware machine learning
jointly optimizes two (or more) metrics aiming at predictive effectiveness and
low unfairness. However, the inherent under-representation of minorities in the
data makes the disparate treatment of subpopulations less noticeable and
difficult to deal with during learning. In this paper, we propose a novel
adversarial reweighting method to address such \emph{representation bias}. To
balance the data distribution between the majority and the minority groups, our
approach deemphasizes samples from the majority group. To minimize empirical
risk, our method prefers samples from the majority group that are close to the
minority group as evaluated by the Wasserstein distance. Our theoretical
analysis shows the effectiveness of our adversarial reweighting approach.
Experiments demonstrate that our approach mitigates bias without sacrificing
classification accuracy, outperforming related state-of-the-art methods on
image and tabular benchmark datasets.
- Abstract(参考訳): サンプル集団における異なるグループの不平等な表現は、機械学習モデルが自動決定を行う場合、少数グループの識別につながる可能性がある。
これらの問題に対処するために、フェアネス対応機械学習は、予測の有効性と不公平性の低い2つ(またはそれ以上)のメトリクスを共同で最適化する。
しかしながら、データ内のマイノリティの固有の過小表現は、サブポピュレーションの異質な扱いがあまり目立たず、学習中の対処が困難である。
本稿では,このような自由表現バイアスに対処するための新しい逆重み付け手法を提案する。
多数派と少数派の間のデータ分布のバランスをとるため,本手法では多数派からのサンプルを強調する。
経験的リスクを最小限に抑えるため,ワッサースタイン距離によって評価されるマイノリティグループに近い多数派のサンプルを好む。
理論解析の結果, 逆重み付け手法の有効性が示された。
実験により,画像および表型ベンチマークデータセットにおける関連する最先端手法を上回り,分類精度を犠牲にすることなくバイアスを軽減できることが実証された。
関連論文リスト
- Confronting Discrimination in Classification: Smote Based on
Marginalized Minorities in the Kernel Space for Imbalanced Data [0.0]
決定境界とサンプル近接関係に基づく新しい分類オーバーサンプリング手法を提案する。
提案手法を古典的金融詐欺データセットで検証する。
論文 参考訳(メタデータ) (2024-02-13T04:03:09Z) - Bias Amplification Enhances Minority Group Performance [10.380812738348899]
本稿では,新しい2段階学習アルゴリズムであるBAMを提案する。
第1段階では、各トレーニングサンプルに対して学習可能な補助変数を導入することにより、バイアス増幅方式を用いてモデルを訓練する。
第2段階では、バイアス増幅モデルが誤分類したサンプルを重み付けし、その後、再重み付けされたデータセット上で同じモデルをトレーニングし続けます。
論文 参考訳(メタデータ) (2023-09-13T04:40:08Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Counterfactual-based minority oversampling for imbalanced classification [11.140929092818235]
不均衡な分類におけるオーバーサンプリングの重要な課題は、新しい少数派標本の生成が多数派クラスの使用を無視することが多いことである。
対物理論に基づく新しいオーバーサンプリングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-21T14:13:15Z) - An Investigation of Why Overparameterization Exacerbates Spurious
Correlations [98.3066727301239]
この動作を駆動するトレーニングデータの2つの重要な特性を特定します。
モデルの"記憶"に対する帰納的バイアスが,パラメータ化の超過を損なう可能性を示す。
論文 参考訳(メタデータ) (2020-05-09T01:59:13Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。