論文の概要: BAdd: Bias Mitigation through Bias Addition
- arxiv url: http://arxiv.org/abs/2408.11439v1
- Date: Wed, 21 Aug 2024 08:50:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-22 17:49:48.117651
- Title: BAdd: Bias Mitigation through Bias Addition
- Title(参考訳): BAdd: バイアス追加によるバイアス軽減
- Authors: Ioannis Sarridis, Christos Koutlis, Symeon Papadopoulos, Christos Diou,
- Abstract要約: コンピュータビジョン(CV)データセットは、ディープラーニングモデルによって永続されるバイアスを示すことが多い。
本稿では,バイアスを導入した属性に不変な公平表現を学習する手法であるBAddを紹介する。
BAddは7つのベンチマークで評価され、競合性能を示し、単一のベンチマークとマルチ属性ベンチマークの両方で最先端の手法を上回っている。
- 参考スコア(独自算出の注目度): 19.140362626182856
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Computer vision (CV) datasets often exhibit biases that are perpetuated by deep learning models. While recent efforts aim to mitigate these biases and foster fair representations, they fail in complex real-world scenarios. In particular, existing methods excel in controlled experiments involving benchmarks with single-attribute injected biases, but struggle with multi-attribute biases being present in well-established CV datasets. Here, we introduce BAdd, a simple yet effective method that allows for learning fair representations invariant to the attributes introducing bias by incorporating features representing these attributes into the backbone. BAdd is evaluated on seven benchmarks and exhibits competitive performance, surpassing state-of-the-art methods on both single- and multi-attribute benchmarks. Notably, BAdd achieves +27.5% and +5.5% absolute accuracy improvements on the challenging multi-attribute benchmarks, FB-Biased-MNIST and CelebA, respectively.
- Abstract(参考訳): コンピュータビジョン(CV)データセットは、ディープラーニングモデルによって永続されるバイアスを示すことが多い。
最近の取り組みは、これらのバイアスを緩和し、公正な表現を促進することを目的としているが、それらは複雑な現実世界のシナリオで失敗する。
特に、単一属性の注入バイアスを持つベンチマークを含む制御実験において、既存の手法は優れているが、確立されたCVデータセットに複数属性のバイアスが存在することに苦慮している。
本稿では,これらの属性を表す特徴をバックボーンに組み込むことで,バイアスを導入した属性に不変な公平表現を学習する,シンプルで効果的な手法であるBAddを紹介する。
BAddは7つのベンチマークで評価され、競合性能を示し、単一のベンチマークとマルチ属性ベンチマークの両方で最先端の手法を上回っている。
特にBAddは、挑戦的なマルチ属性ベンチマーク、FB-Biased-MNIST、CelebAにおいて、+27.5%と+5.5%の絶対精度の向上を達成した。
関連論文リスト
- Benchmarking Spurious Bias in Few-Shot Image Classifiers [26.544938760265136]
画像分類器はほとんどないが、クラスとスプリアス属性の間のスプリアス相関に依存しており、スプリアスバイアスとして知られている。
我々はFewSTABを提案する。このFewSTABは、数発の分類器の様々な頑健さを定量的に証明し、定量化し、刺激バイアスを与える。
FewSTABは、バイアスのある属性を持つ少数ショット評価タスクを生成し、予測にそれらを使用することでパフォーマンスが低下することを示す。
論文 参考訳(メタデータ) (2024-09-04T17:07:46Z) - Enhancing Intrinsic Features for Debiasing via Investigating Class-Discerning Common Attributes in Bias-Contrastive Pair [36.221761997349795]
ディープニューラルネットワークは、データセットバイアスの存在下でターゲットクラスと急激な相関を持つバイアス特性に依存している。
本稿では,本質的特徴の領域を示す空間的指示を明示的に提示する手法を提案する。
実験により, 種々のバイアス重大度を有する合成および実世界のデータセットに対して, 最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2024-04-30T04:13:14Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Improving QA Generalization by Concurrent Modeling of Multiple Biases [61.597362592536896]
既存のNLPデータセットには、モデルが容易に活用できる様々なバイアスが含まれており、対応する評価セット上で高いパフォーマンスを達成することができる。
本稿では、トレーニングデータにおける複数のバイアスの同時モデリングにより、ドメイン内およびドメイン外両方のデータセットのパフォーマンスを改善するための一般的なフレームワークを提案する。
我々は,様々な領域の学習データと異なる強度の複数のバイアスを持つ抽出的質問応答の枠組みを広く評価した。
論文 参考訳(メタデータ) (2020-10-07T11:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。