論文の概要: BiasEnsemble: Revisiting the Importance of Amplifying Bias for Debiasing
- arxiv url: http://arxiv.org/abs/2205.14594v1
- Date: Sun, 29 May 2022 07:55:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-04 15:51:02.088501
- Title: BiasEnsemble: Revisiting the Importance of Amplifying Bias for Debiasing
- Title(参考訳): BiasEnsemble: バイアス除去の重要性を再考する
- Authors: Jungsoo Lee, Jeonghoon Park, Daeyoung Kim, Juyoung Lee, Edward Choi,
Jaegul Choo
- Abstract要約: Debiasing”は、データセットバイアスの影響を受けにくいように分類器をトレーニングすることを目的としている。
$f_B$はバイアス整合サンプルにフォーカスするよう訓練され、$f_D$は主にバイアス整合サンプルでトレーニングされる。
本稿では,バイアス分散サンプルを除去する新しいバイアス付きサンプル選択法であるBiasEnsembleを提案する。
- 参考スコア(独自算出の注目度): 31.665352191081357
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In image classification, "debiasing" aims to train a classifier to be less
susceptible to dataset bias, the strong correlation between peripheral
attributes of data samples and a target class. For example, even if the frog
class in the dataset mainly consists of frog images with a swamp background
(i.e., bias-aligned samples), a debiased classifier should be able to correctly
classify a frog at a beach (i.e., bias-conflicting samples). Recent debiasing
approaches commonly use two components for debiasing, a biased model $f_B$ and
a debiased model $f_D$. $f_B$ is trained to focus on bias-aligned samples while
$f_D$ is mainly trained with bias-conflicting samples by concentrating on
samples which $f_B$ fails to learn, leading $f_D$ to be less susceptible to the
dataset bias. While the state-of-the-art debiasing techniques have aimed to
better train $f_D$, we focus on training $f_B$, an overlooked component until
now. Our empirical analysis reveals that removing the bias-conflicting samples
from the training set for $f_B$ is important for improving the debiasing
performance of $f_D$. This is due to the fact that the bias-conflicting samples
work as noisy samples for amplifying the bias for $f_B$. To this end, we
propose a novel biased sample selection method BiasEnsemble which removes the
bias-conflicting samples via leveraging additional biased models to construct a
bias-amplified dataset for training $f_B$. Our simple yet effective approach
can be directly applied to existing reweighting-based debiasing approaches,
obtaining consistent performance boost and achieving the state-of-the-art
performance on both synthetic and real-world datasets.
- Abstract(参考訳): 画像分類において、"debiasing"は、データセットバイアスや、データサンプルの周辺属性とターゲットクラスとの強い相関性が低いように分類器を訓練することを目的としている。
例えば、データセット内のカエルクラスが主に湿地背景のカエル画像(例えばバイアスアライメントサンプル)で構成されている場合でも、デバイアス分類器は、ビーチでカエルを正しく分類することができる(すなわちバイアスコンプライシングサンプル)。
最近のデバイアス化アプローチでは、デバイアス化に一般的に2つのコンポーネント、バイアスモデル$f_B$とデバイアスモデル$f_D$が使用される。
$f_B$はバイアスアライメントされたサンプルにフォーカスするように訓練されているが、$f_D$は主に、$f_B$が学習に失敗するサンプルに集中することでバイアスコンフリクトなサンプルでトレーニングされている。
最先端のデバイアス技術は$f_D$をトレーニングすることを目的としていますが、これまで見落とされたコンポーネントである$f_B$のトレーニングに重点を置いています。
実験分析の結果,f_B$のトレーニングセットからバイアス分散サンプルを除去することが,f_D$の劣化性能向上に重要であることがわかった。
これは、バイアス競合サンプルが$f_b$のバイアスを増幅するためにノイズサンプルとして動作するという事実による。
そこで本研究では,新たなバイアスサンプル選択法であるbiasensembleを提案する。バイアス強調モデルを用いて,$f_b$をトレーニングするためのバイアス増幅データセットを構築することにより,バイアス強調サンプルを除去する。
当社のシンプルかつ効果的なアプローチは、既存の重み付けベースのデバイアスアプローチに直接適用でき、一貫したパフォーマンス向上と、合成データと実世界のデータセットの両方における最先端のパフォーマンスを達成することができます。
関連論文リスト
- CosFairNet:A Parameter-Space based Approach for Bias Free Learning [1.9116784879310025]
バイアス付きデータに基づいてトレーニングされたディープニューラルネットワークは、意図しない推論ルールを不注意に学習することが多い。
本稿では,モデルのパラメータ空間内で直接バイアスに対処する新しい手法を提案する。
各種合成および実世界のデータセットにおいて,分類精度の向上と偏りの低減効果を示す。
論文 参考訳(メタデータ) (2024-10-19T13:06:40Z) - Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - IBADR: an Iterative Bias-Aware Dataset Refinement Framework for
Debiasing NLU models [52.03761198830643]
IBADR(Iterative Bias-Aware dataset Refinement framework)を提案する。
まず、プール内のサンプルのバイアス度を定量化するために浅いモデルを訓練する。
次に、各サンプルにバイアス度を表すバイアス指標をペアにして、これらの拡張サンプルを使用してサンプルジェネレータを訓練する。
このようにして、このジェネレータは、バイアスインジケータとサンプルの対応関係を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-11-01T04:50:38Z) - From Fake to Real: Pretraining on Balanced Synthetic Images to Prevent Spurious Correlations in Image Recognition [64.59093444558549]
我々はFrom Fake to Realと呼ぶシンプルで簡単に実装できる2段階のトレーニングパイプラインを提案する。
実データと合成データを別々にトレーニングすることで、FFRは実データと合成データの統計的差異にモデルを公開しない。
実験の結果,FFRは3つのデータセットに対して,最先端のグループ精度を最大20%向上させることがわかった。
論文 参考訳(メタデータ) (2023-08-08T19:52:28Z) - Echoes: Unsupervised Debiasing via Pseudo-bias Labeling in an Echo
Chamber [17.034228910493056]
本稿では,既存のバイアスモデルがトレーニングデータにおけるバイアス強調サンプルに過度に適合していることを明らかにする実験的検討を行った。
本研究では、バイアスモデルとターゲットモデルを異なる戦略で訓練するEchoesという、単純で効果的な手法を提案する。
提案手法は,既存の合成データセットと実世界のデータセットのベースラインと比較して,優れたデバイアス化結果が得られる。
論文 参考訳(メタデータ) (2023-05-06T13:13:18Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - Bias Mimicking: A Simple Sampling Approach for Bias Mitigation [57.17709477668213]
本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
論文 参考訳(メタデータ) (2022-09-30T17:33:00Z) - Learning Debiased Representation via Disentangled Feature Augmentation [19.348340314001756]
本稿では, 様々なバイアスを伴うサンプルを用いたトレーニングが, 脱バイアスに不可欠であることを示す実験的検討を行った。
本稿では, 多様なバイアス分散サンプルを合成するために, 特徴レベルのデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2021-07-03T08:03:25Z) - Towards Robustifying NLI Models Against Lexical Dataset Biases [94.79704960296108]
本稿では、語彙的データセットバイアスに対するモデル強化のための、データレベルとモデルレベルのデバイアス法の両方について検討する。
まず、データ拡張と拡張によってデータセットをデバイアスするが、この方法でモデルバイアスを完全に除去することはできないことを示す。
第2のアプローチでは、バーオブワードのサブモデルを使用して、バイアスを悪用する可能性のある機能をキャプチャし、元のモデルがこれらのバイアス付き機能を学ぶのを防ぐ。
論文 参考訳(メタデータ) (2020-05-10T17:56:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。