論文の概要: Subgroups Matter for Robust Bias Mitigation
- arxiv url: http://arxiv.org/abs/2505.21363v2
- Date: Thu, 29 May 2025 12:21:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 13:10:25.758348
- Title: Subgroups Matter for Robust Bias Mitigation
- Title(参考訳): ロバストバイアス軽減のためのサブグループ
- Authors: Anissa Alloula, Charles Jones, Ben Glocker, Bartłomiej W. Papież,
- Abstract要約: 重要な要素は、しばしば見過ごされるが、多くのバイアス緩和法(部分群の定義)によって共有される重要なステップである。
以上の結果から,サブグループ選択がパフォーマンスに大きく影響し,グループ選択が効果を損なうことが示唆された。
我々の研究は、バイアス緩和における注意深いサブグループ定義の重要性を強調し、機械学習モデルの堅牢性と公正性を改善するための代替レバーとして提示する。
- 参考スコア(独自算出の注目度): 13.696614072178818
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the constant development of new bias mitigation methods for machine learning, no method consistently succeeds, and a fundamental question remains unanswered: when and why do bias mitigation techniques fail? In this paper, we hypothesise that a key factor may be the often-overlooked but crucial step shared by many bias mitigation methods: the definition of subgroups. To investigate this, we conduct a comprehensive evaluation of state-of-the-art bias mitigation methods across multiple vision and language classification tasks, systematically varying subgroup definitions, including coarse, fine-grained, intersectional, and noisy subgroups. Our results reveal that subgroup choice significantly impacts performance, with certain groupings paradoxically leading to worse outcomes than no mitigation at all. Our findings suggest that observing a disparity between a set of subgroups is not a sufficient reason to use those subgroups for mitigation. Through theoretical analysis, we explain these phenomena and uncover a counter-intuitive insight that, in some cases, improving fairness with respect to a particular set of subgroups is best achieved by using a different set of subgroups for mitigation. Our work highlights the importance of careful subgroup definition in bias mitigation and presents it as an alternative lever for improving the robustness and fairness of machine learning models.
- Abstract(参考訳): 機械学習のための新しいバイアス緩和手法が絶え間なく開発されているにもかかわらず、どの手法も一貫して成功せず、根本的な疑問は未解決のままである。
本稿では,多くのバイアス緩和手法によって共有される,しばしば見過ごされるが重要なステップである,部分群の定義について仮説を立てる。
そこで本研究では,複数の視覚・言語分類タスクにおける最先端バイアス緩和手法を包括的に評価し,粗大,きめ細粒,交叉,雑音などのサブグループ定義を体系的に変更した。
以上の結果から,サブグループ選択がパフォーマンスに大きく影響し,グループ選択がパラドックス的な結果をもたらすことが示唆された。
以上の結果から,サブグループ間の格差を観察することは,これらのサブグループを緩和に使用する十分な理由ではないことが示唆された。
理論的解析を通じて、これらの現象を説明し、ある特定の部分群の集合に対する公正性を改善することは、緩和のために異なる部分群の集合を使用することで最も良く達成されるという反直観的な洞察を明らかにする。
我々の研究は、バイアス緩和における注意深いサブグループ定義の重要性を強調し、機械学習モデルの堅牢性と公正性を改善するための代替レバーとして提示する。
関連論文リスト
- Project-Probe-Aggregate: Efficient Fine-Tuning for Group Robustness [53.96714099151378]
画像テキスト基礎モデルのパラメータ効率向上のための3段階のアプローチを提案する。
本手法は, マイノリティ標本同定とロバストトレーニングアルゴリズムの2つの重要な要素を改良する。
我々の理論分析は,PPAが少数群の識別を向上し,バランスの取れたグループエラーを最小限に抑えるためにベイズが最適であることを示している。
論文 参考訳(メタデータ) (2025-03-12T15:46:12Z) - Fairness of Deep Ensembles: On the interplay between per-group task difficulty and under-representation [9.11104048176204]
組立は、機械学習におけるモデルの一般的な性能を改善する効果的な方法として一般的に考えられている。
単純で簡単な手法が相違を緩和し、特に性能の低い部分群に利益をもたらすことを示す。
我々は,サブグループ下表現と各グループ固有の課題の難易度という,バイアスをもたらす可能性のある2つの要因間の相互作用を分析した。
論文 参考訳(メタデータ) (2025-01-24T14:54:01Z) - A Contrastive Learning Approach to Mitigate Bias in Speech Models [13.192011475857234]
対照的な損失に対して異なるスコープに焦点を合わせることでモデルをガイドする3段階の学習手法を採用している。
2つの音声言語理解データセットと2つの言語を用いた実験は、我々の手法が内部サブグループ表現を改善することを示す。
論文 参考訳(メタデータ) (2024-06-20T19:20:00Z) - Discover and Mitigate Multiple Biased Subgroups in Image Classifiers [45.96784278814168]
機械学習モデルは、分散データではうまく機能するが、トレーニングデータに不足している偏りのあるサブグループでは失敗することが多い。
この問題に対処するために,分解,解釈,緩和(DIM)を提案する。
提案手法では,画像特徴を複数のサブグループを表す複数のコンポーネントに分解する。
論文 参考訳(メタデータ) (2024-03-19T14:44:54Z) - Fairness Aware Counterfactuals for Subgroups [8.593488857185678]
本稿では,サブグループのフェアネスを監査するフレームワークであるFACTS(Fairness Aware Counterfactuals for Subgroups)を紹介する。
我々は、特定のサブグループにおける個人の困難さの異なる側面を定式化し、談話を達成することを目的としている。
我々は、言論を達成するためのコストに対して、完全に不可避ではないが頑健な部分群フェアネスの概念を導入する。
論文 参考訳(メタデータ) (2023-06-26T18:03:56Z) - Learning by Sorting: Self-supervised Learning with Group Ordering
Constraints [75.89238437237445]
本稿では,対照学習目標である群順序制約(GroCo)の新たなバリエーションを提案する。
正の対と負の対の距離をソートし、正の対が負の対よりも多くの距離を持つかに基づいてそれぞれの損失を計算するという考え方を利用しており、したがって正しく順序付けされていない。
各種自己教師付き学習ベンチマークの定式化について検討し、バニラのコントラスト学習と比較して結果が向上するだけでなく、k-NNの性能において、線形探索や性能向上において同等の手法と競合する性能を示すことを示す。
論文 参考訳(メタデータ) (2023-01-05T11:17:55Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - Outlier-Robust Group Inference via Gradient Space Clustering [50.87474101594732]
既存のメソッドは、最悪のグループのパフォーマンスを改善することができるが、それらは、しばしば高価で入手できないグループアノテーションを必要とする。
モデルパラメータの勾配の空間にデータをクラスタリングすることで,アウトレーヤの存在下でグループアノテーションを学習する問題に対処する。
そこで我々は,DBSCANのような標準クラスタリング手法に適合するように,マイノリティグループや外れ値に関する情報を保存しながら,勾配空間内のデータがより単純な構造を持つことを示す。
論文 参考訳(メタデータ) (2022-10-13T06:04:43Z) - One-vs.-One Mitigation of Intersectional Bias: A General Method to Extend Fairness-Aware Binary Classification [0.14732811715354452]
1-vs.ワン・マイティゲーション(英: One-vs. One Mitigation)は、二項分類のためのフェアネス認識機械学習と、センシティブ属性に関連する各サブグループの比較プロセスである。
本手法は,すべての設定において従来の手法よりも交叉バイアスを緩和する。
論文 参考訳(メタデータ) (2020-10-26T11:35:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。