論文の概要: Bias Mimicking: A Simple Sampling Approach for Bias Mitigation
- arxiv url: http://arxiv.org/abs/2209.15605v7
- Date: Sat, 25 Mar 2023 19:34:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 02:26:17.382425
- Title: Bias Mimicking: A Simple Sampling Approach for Bias Mitigation
- Title(参考訳): Bias Mimicking: Bias緩和のための簡単なサンプリングアプローチ
- Authors: Maan Qraitem, Kate Saenko, Bryan A. Plummer
- Abstract要約: 本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
- 参考スコア(独自算出の注目度): 57.17709477668213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prior work has shown that Visual Recognition datasets frequently
underrepresent bias groups $B$ (\eg Female) within class labels $Y$ (\eg
Programmers). This dataset bias can lead to models that learn spurious
correlations between class labels and bias groups such as age, gender, or race.
Most recent methods that address this problem require significant architectural
changes or additional loss functions requiring more hyper-parameter tuning.
Alternatively, data sampling baselines from the class imbalance literature (\eg
Undersampling, Upweighting), which can often be implemented in a single line of
code and often have no hyperparameters, offer a cheaper and more efficient
solution. However, these methods suffer from significant shortcomings. For
example, Undersampling drops a significant part of the input distribution per
epoch while Oversampling repeats samples, causing overfitting. To address these
shortcomings, we introduce a new class-conditioned sampling method: Bias
Mimicking. The method is based on the observation that if a class $c$ bias
distribution, \ie $P_D(B|Y=c)$ is mimicked across every $c^{\prime}\neq c$,
then $Y$ and $B$ are statistically independent. Using this notion, BM, through
a novel training procedure, ensures that the model is exposed to the entire
distribution per epoch without repeating samples. Consequently, Bias Mimicking
improves underrepresented groups' accuracy of sampling methods by 3\% over four
benchmarks while maintaining and sometimes improving performance over
nonsampling methods. Code: \url{https://github.com/mqraitem/Bias-Mimicking}
- Abstract(参考訳): 以前の研究では、視覚認識データセットがクラスラベルの$y$(\egプログラマ)内でバイアスグループを過小表現していることが示されている。
このデータセットバイアスは、クラスラベルと年齢、性別、人種などのバイアスグループの間の急激な相関を学習するモデルにつながる可能性がある。
この問題に対処する最も最近の手法は、アーキテクチャの変更や、よりハイパーパラメータチューニングを必要とする追加の損失関数を必要とする。
あるいは、クラスのアンバランスな文献(\eg Undersampling, Upweighting)からのデータサンプリングベースラインも、単一のコード行で実装され、ハイパーパラメータを持たないことが多いため、より安価で効率的なソリューションを提供する。
しかし、これらの手法には重大な欠点がある。
例えば、アンダーサンプリングはエポック毎の入力分布の重要な部分を落とし、オーバーサンプリングはサンプルを繰り返す。
これらの欠点に対処するため,新しいクラス条件サンプリング手法であるバイアスミミキングを導入する。
この方法は、クラス $c$ のバイアス分布である \ie $p_d(b|y=c)$ が $c^{\prime}\neq c$ ごとに模倣された場合、$y$ と $b$ は統計的に独立である。
この概念を用いて、bmは、新しいトレーニング手順を通じて、サンプルを繰り返すことなく、モデルがエポック当たりの分布全体に露出することを保証する。
その結果、Bias Mimickingは4つのベンチマークに対して3倍の精度でサンプリング方法の表現不足のグループの精度を向上し、非サンプリング手法よりもパフォーマンスを維持、時には改善する。
コード: \url{https://github.com/mqraitem/Bias-Mimicking}
関連論文リスト
- Data-Efficient Learning via Clustering-Based Sensitivity Sampling:
Foundation Models and Beyond [28.651041302245538]
我々は$k$-meansクラスタリングとサンプリング感度に基づく新しいデータ選択手法を提案する。
線形回帰にどのように適用できるかを示すとともに,レバレッジスコアサンプリングの性能と驚くほど一致した新しいサンプリング戦略がもたらされる。
論文 参考訳(メタデータ) (2024-02-27T09:03:43Z) - Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - IBADR: an Iterative Bias-Aware Dataset Refinement Framework for
Debiasing NLU models [52.03761198830643]
IBADR(Iterative Bias-Aware dataset Refinement framework)を提案する。
まず、プール内のサンプルのバイアス度を定量化するために浅いモデルを訓練する。
次に、各サンプルにバイアス度を表すバイアス指標をペアにして、これらの拡張サンプルを使用してサンプルジェネレータを訓練する。
このようにして、このジェネレータは、バイアスインジケータとサンプルの対応関係を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-11-01T04:50:38Z) - Efficient Hybrid Oversampling and Intelligent Undersampling for
Imbalanced Big Data Classification [1.03590082373586]
本稿では,MapReduceフレームワークを用いて,インテリジェントアンダーサンプリングとオーバーサンプリングを組み合わせたSMOTENNという新しいリサンプリング手法を提案する。
実験の結果,この手法の利点が示され,小規模・中規模のデータセットに対する代替サンプリング技術よりも優れていた。
論文 参考訳(メタデータ) (2023-10-09T15:22:13Z) - Spuriosity Rankings: Sorting Data to Measure and Mitigate Biases [62.54519787811138]
本稿では,突発的手がかりに依存したモデルバイアスを簡易かつ効果的に測定・緩和する手法を提案する。
我々は,解釈可能なネットワークの深部神経的特徴をベースとして,それらのクラス内の画像のランク付けを行う。
以上の結果から,素早い特徴依存によるモデルバイアスは,モデルがどのようにトレーニングされたかよりも,モデルがトレーニングされていることの影響がはるかに大きいことが示唆された。
論文 参考訳(メタデータ) (2022-12-05T23:15:43Z) - BiasEnsemble: Revisiting the Importance of Amplifying Bias for Debiasing [31.665352191081357]
Debiasing”は、データセットバイアスの影響を受けにくいように分類器をトレーニングすることを目的としている。
$f_B$はバイアス整合サンプルにフォーカスするよう訓練され、$f_D$は主にバイアス整合サンプルでトレーニングされる。
本稿では,バイアス分散サンプルを除去する新しいバイアス付きサンプル選択法であるBiasEnsembleを提案する。
論文 参考訳(メタデータ) (2022-05-29T07:55:06Z) - Stop Oversampling for Class Imbalance Learning: A Critical Review [0.9208007322096533]
オーバーサンプリングは、不均衡なデータセットから学ぶことの難しさを克服するために採用されている。
オーバーサンプリングアプローチの根本的な難しさは、実生個体数を考えると、合成標本が真のマイノリティクラスに属していないことである。
我々は,多数のサンプルを隠蔽し,オーバーサンプリングプロセスによって生成されたものと比較し,新しいオーバーサンプリング評価システムを開発した。
論文 参考訳(メタデータ) (2022-02-04T15:11:11Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - Does Adversarial Oversampling Help us? [10.210871872870737]
本稿では,データセットのクラス不均衡を処理するために,3人のプレイヤーによるゲームベースのエンドツーエンド手法を提案する。
本稿では,敵対的マイノリティ・オーバーサンプリングではなく,敵対的オーバーサンプリング (AO) とデータ空間・オーバーサンプリング (DO) のアプローチを提案する。
提案手法の有効性を高次元・高不均衡・大規模マルチクラスデータセットを用いて検証した。
論文 参考訳(メタデータ) (2021-08-20T05:43:17Z) - Coping with Label Shift via Distributionally Robust Optimisation [72.80971421083937]
分散ロバスト最適化(DRO)に基づく目的最小化モデルを提案する。
そこで我々は,提案した目的を最適化するために,大規模問題に適した勾配降下近位ミラー上昇アルゴリズムを設計し,解析する。
論文 参考訳(メタデータ) (2020-10-23T08:33:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。