論文の概要: Bias Mimicking: A Simple Sampling Approach for Bias Mitigation
- arxiv url: http://arxiv.org/abs/2209.15605v1
- Date: Fri, 30 Sep 2022 17:33:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 16:00:53.945640
- Title: Bias Mimicking: A Simple Sampling Approach for Bias Mitigation
- Title(参考訳): Bias Mimicking: Bias緩和のための簡単なサンプリングアプローチ
- Authors: Maan Qraitem, Kate Saenko, Bryan A. Plummer
- Abstract要約: 単純な手法は、多くのデータセットにおける最先端バイアス緩和手法と著しく競合することを示す。
我々は,新しいクラス条件付きサンプリング手法を導入することにより,これらの手法を改善した。
- 参考スコア(独自算出の注目度): 57.17709477668213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prior work has shown that Visual Recognition datasets frequently
under-represent sensitive groups (\eg Female) within a category (\eg
Programmers). This dataset bias can lead to models that learn spurious
correlations between class labels and sensitive attributes such as age, gender,
or race. Most of the recent methods that address this problem require
significant architectural changes or expensive hyper-parameter tuning.
Alternatively, data re-sampling baselines from the class imbalance literature
(\eg Undersampling, Upweighting), which can often be implemented in a single
line of code and often have no hyperparameters, offer a cheaper and more
efficient solution. However, we found that some of these baselines were missing
from recent bias mitigation benchmarks. In this paper, we show that these
simple methods are strikingly competitive with state-of-the-art bias mitigation
methods on many datasets. Furthermore, we improve these methods by introducing
a new class conditioned sampling method: Bias Mimicking. In cases where the
baseline dataset re-sampling methods do not perform well, Bias Mimicking
effectively bridges the performance gap and improves the total averaged
accuracy of under-represented subgroups by over $3\%$ compared to prior work.
- Abstract(参考訳): 以前の研究によると、視覚認識データセットは、カテゴリ (\eg Programmers) 内で、しばしば過小評価されるグループ (\eg Women) である。
このデータセットバイアスは、クラスラベルと年齢、性別、人種などのセンシティブな属性の間の急激な相関を学習するモデルにつながる可能性がある。
この問題に対処する最近の手法のほとんどは、重要なアーキテクチャ変更や高価なハイパーパラメータチューニングを必要とする。
あるいは、クラス不均衡の文献(\eg Undersampling, Upweighting)からのデータ再サンプリングのベースラインは、1行のコードで実装され、ハイパーパラメータを持たないことが多いため、より安価で効率的なソリューションを提供する。
しかし、最近のバイアス緩和ベンチマークでは、これらのベースラインのいくつかが欠落していることがわかった。
本稿では,これらの単純な手法が,多くのデータセットにおける最先端バイアス緩和手法と著しく競合していることを示す。
さらに,新しいクラス条件付きサンプリング手法を導入することで,これらの手法を改良する。
ベースラインデータセットの再サンプリングがうまく機能しない場合、バイアス模倣はパフォーマンスギャップを効果的に橋渡しし、未表示のサブグループの合計平均精度を以前の作業と比較して3〜%以上向上させる。
関連論文リスト
- Data-Efficient Learning via Clustering-Based Sensitivity Sampling:
Foundation Models and Beyond [28.651041302245538]
我々は$k$-meansクラスタリングとサンプリング感度に基づく新しいデータ選択手法を提案する。
線形回帰にどのように適用できるかを示すとともに,レバレッジスコアサンプリングの性能と驚くほど一致した新しいサンプリング戦略がもたらされる。
論文 参考訳(メタデータ) (2024-02-27T09:03:43Z) - Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - IBADR: an Iterative Bias-Aware Dataset Refinement Framework for
Debiasing NLU models [52.03761198830643]
IBADR(Iterative Bias-Aware dataset Refinement framework)を提案する。
まず、プール内のサンプルのバイアス度を定量化するために浅いモデルを訓練する。
次に、各サンプルにバイアス度を表すバイアス指標をペアにして、これらの拡張サンプルを使用してサンプルジェネレータを訓練する。
このようにして、このジェネレータは、バイアスインジケータとサンプルの対応関係を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-11-01T04:50:38Z) - Efficient Hybrid Oversampling and Intelligent Undersampling for
Imbalanced Big Data Classification [1.03590082373586]
本稿では,MapReduceフレームワークを用いて,インテリジェントアンダーサンプリングとオーバーサンプリングを組み合わせたSMOTENNという新しいリサンプリング手法を提案する。
実験の結果,この手法の利点が示され,小規模・中規模のデータセットに対する代替サンプリング技術よりも優れていた。
論文 参考訳(メタデータ) (2023-10-09T15:22:13Z) - Spuriosity Rankings: Sorting Data to Measure and Mitigate Biases [62.54519787811138]
本稿では,突発的手がかりに依存したモデルバイアスを簡易かつ効果的に測定・緩和する手法を提案する。
我々は,解釈可能なネットワークの深部神経的特徴をベースとして,それらのクラス内の画像のランク付けを行う。
以上の結果から,素早い特徴依存によるモデルバイアスは,モデルがどのようにトレーニングされたかよりも,モデルがトレーニングされていることの影響がはるかに大きいことが示唆された。
論文 参考訳(メタデータ) (2022-12-05T23:15:43Z) - BiasEnsemble: Revisiting the Importance of Amplifying Bias for Debiasing [31.665352191081357]
Debiasing”は、データセットバイアスの影響を受けにくいように分類器をトレーニングすることを目的としている。
$f_B$はバイアス整合サンプルにフォーカスするよう訓練され、$f_D$は主にバイアス整合サンプルでトレーニングされる。
本稿では,バイアス分散サンプルを除去する新しいバイアス付きサンプル選択法であるBiasEnsembleを提案する。
論文 参考訳(メタデータ) (2022-05-29T07:55:06Z) - Stop Oversampling for Class Imbalance Learning: A Critical Review [0.9208007322096533]
オーバーサンプリングは、不均衡なデータセットから学ぶことの難しさを克服するために採用されている。
オーバーサンプリングアプローチの根本的な難しさは、実生個体数を考えると、合成標本が真のマイノリティクラスに属していないことである。
我々は,多数のサンプルを隠蔽し,オーバーサンプリングプロセスによって生成されたものと比較し,新しいオーバーサンプリング評価システムを開発した。
論文 参考訳(メタデータ) (2022-02-04T15:11:11Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - Does Adversarial Oversampling Help us? [10.210871872870737]
本稿では,データセットのクラス不均衡を処理するために,3人のプレイヤーによるゲームベースのエンドツーエンド手法を提案する。
本稿では,敵対的マイノリティ・オーバーサンプリングではなく,敵対的オーバーサンプリング (AO) とデータ空間・オーバーサンプリング (DO) のアプローチを提案する。
提案手法の有効性を高次元・高不均衡・大規模マルチクラスデータセットを用いて検証した。
論文 参考訳(メタデータ) (2021-08-20T05:43:17Z) - Coping with Label Shift via Distributionally Robust Optimisation [72.80971421083937]
分散ロバスト最適化(DRO)に基づく目的最小化モデルを提案する。
そこで我々は,提案した目的を最適化するために,大規模問題に適した勾配降下近位ミラー上昇アルゴリズムを設計し,解析する。
論文 参考訳(メタデータ) (2020-10-23T08:33:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。