論文の概要: Multi Attribute Bias Mitigation via Representation Learning
- arxiv url: http://arxiv.org/abs/2509.03616v1
- Date: Wed, 03 Sep 2025 18:08:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:09.934628
- Title: Multi Attribute Bias Mitigation via Representation Learning
- Title(参考訳): 表現学習による多属性バイアス軽減
- Authors: Rajeev Ranjan Dwivedi, Ankur Kumar, Vinod K Kurmi,
- Abstract要約: 実世界のイメージは、テクスチャ、透かし、ジェンダーメイク、シーンオブジェクトペアリングなど、複数の重なり合うバイアスを頻繁に示します。
これは、トレーニング中にのみグループラベルを必要とし、テスト時にバイアスを最小限に抑えるリーン2段階フレームワークである。
GMBMをFB CMNIST, CelebA, COCO上で検証し, 最悪のグループ精度を向上し, 多属性バイアス増幅を半減させ, SBAでは新たな低値を設定した。
- 参考スコア(独自算出の注目度): 5.155573439009767
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Real world images frequently exhibit multiple overlapping biases, including textures, watermarks, gendered makeup, scene object pairings, etc. These biases collectively impair the performance of modern vision models, undermining both their robustness and fairness. Addressing these biases individually proves inadequate, as mitigating one bias often permits or intensifies others. We tackle this multi bias problem with Generalized Multi Bias Mitigation (GMBM), a lean two stage framework that needs group labels only while training and minimizes bias at test time. First, Adaptive Bias Integrated Learning (ABIL) deliberately identifies the influence of known shortcuts by training encoders for each attribute and integrating them with the main backbone, compelling the classifier to explicitly recognize these biases. Then Gradient Suppression Fine Tuning prunes those very bias directions from the backbone's gradients, leaving a single compact network that ignores all the shortcuts it just learned to recognize. Moreover we find that existing bias metrics break under subgroup imbalance and train test distribution shifts, so we introduce Scaled Bias Amplification (SBA): a test time measure that disentangles model induced bias amplification from distributional differences. We validate GMBM on FB CMNIST, CelebA, and COCO, where we boost worst group accuracy, halve multi attribute bias amplification, and set a new low in SBA even as bias complexity and distribution shifts intensify, making GMBM the first practical, end to end multibias solution for visual recognition. Project page: http://visdomlab.github.io/GMBM/
- Abstract(参考訳): 実世界のイメージは、テクスチャ、透かし、ジェンダーメイク、シーンオブジェクトペアリングなど、複数の重なり合うバイアスを頻繁に示します。
これらのバイアスは現代の視覚モデルの性能を損なうものであり、その頑丈さと公正さの両方を損なう。
一つのバイアスを緩和することは、しばしば他人を許すか、強化するので、これらのバイアスに個別に対処することは不十分である。
これは、トレーニング中にのみグループラベルを必要とし、テスト時にバイアスを最小限に抑えるリーン2段階フレームワークである。
まず、アダプティブバイアス統合学習(ABIL)は、各属性に対するエンコーダを訓練し、それらをメインのバックボーンと統合することにより、既知のショートカットの影響を意図的に識別し、これらのバイアスを明確に認識させる。
グラディエント抑制ファインチューニング(Gradient Suppression Fine Tuning)は、背骨の勾配から非常に偏りのある方向を推定し、認識した全てのショートカットを無視する1つのコンパクトネットワークを残します。
さらに,既存のバイアス測定値がサブグループ不均衡の下で破られ,テスト分布が変化していることが分かり,SBA(Scaled Bias Amplification:スケールドバイアス増幅)を導入する。
我々は,FB CMNIST,CelebA,COCO上でGMBMを検証し,最悪のグループ精度を向上し,多属性バイアス増幅を半減させ,バイアス複雑性や分布シフトが増大してもSBAにおいて新たな低い値を設定し,GMBMを視覚認識のための最初の実用的終端マルチバイアスソリューションとした。
プロジェクトページ: http://visdomlab.github.io/GMBM/
関連論文リスト
- Debiasify: Self-Distillation for Unsupervised Bias Mitigation [19.813054813868476]
単純性バイアスはニューラルネットワークにおいて重要な課題となり、しばしばモデルがより単純な解を好んで、急激な相関による決定規則を不注意に学習する。
バイアスの性質に関する事前の知識を必要としない新しい自己蒸留アプローチであるDebiasifyを紹介します。
提案手法は, 複雑で高精度な特徴を含む深い層から, より単純な特性条件を持つ浅層へと, ネットワーク内の知識を伝達するために, 新たな蒸留損失を生かしている。
論文 参考訳(メタデータ) (2024-11-01T16:25:05Z) - Mitigating Bias for Question Answering Models by Tracking Bias Influence [84.66462028537475]
本稿では,複数選択QAモデルのバイアスを軽減するためのBMBIを提案する。
バイアスのある例から学んだ場合、モデルがよりバイアスに傾くように傾くという直感に基づいて、クエリインスタンスのバイアスレベルを測定します。
本手法は,複数のバイアスカテゴリにまたがる複数のQA定式化に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-10-13T00:49:09Z) - Men Also Do Laundry: Multi-Attribute Bias Amplification [2.492300648514129]
コンピュータビジョンシステムは再生だけでなく、有害な社会的バイアスを増幅している。
マルチ属性バイアス増幅という新しい指標を提案する。
提案手法は,COCOおよびImsituデータセットにおける性別バイアス増幅の分析を通じて検証する。
論文 参考訳(メタデータ) (2022-10-21T12:50:15Z) - Self-supervised debiasing using low rank regularization [59.84695042540525]
純粋な相関は、ディープニューラルネットワークの強いバイアスを引き起こし、一般化能力を損なう可能性がある。
ラベルのないサンプルと互換性のある自己監督型脱バイアスフレームワークを提案する。
注目すべきは,提案フレームワークが自己教師付き学習ベースラインの一般化性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-10-11T08:26:19Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - Learning Debiased Models with Dynamic Gradient Alignment and
Bias-conflicting Sample Mining [39.00256193731365]
ディープニューラルネットワークは、堅牢性、一般化、公正性をモデル化するのに有害なデータセットバイアスに悩まされている。
難解な未知のバイアスと戦うための2段階のデバイアス方式を提案する。
論文 参考訳(メタデータ) (2021-11-25T14:50:10Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - BiaSwap: Removing dataset bias with bias-tailored swapping augmentation [20.149645246997668]
ディープニューラルネットワークは、データセット固有のスプリットな相関に基づいて決定することが多く、偏りのないデータ分布を一般化することができない。
本稿では,バイアスタイプの監督を必要とせず,非バイアス表現を学習するための,バイアス調整強化に基づく新しいアプローチBiaSwapを提案する。
論文 参考訳(メタデータ) (2021-08-23T08:35:26Z) - Evading the Simplicity Bias: Training a Diverse Set of Models Discovers
Solutions with Superior OOD Generalization [93.8373619657239]
SGDで訓練されたニューラルネットワークは最近、線形予測的特徴に優先的に依存することが示された。
この単純さバイアスは、分布外堅牢性(OOD)の欠如を説明することができる。
単純さのバイアスを軽減し,ood一般化を改善できることを実証する。
論文 参考訳(メタデータ) (2021-05-12T12:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。