論文の概要: Fairness of Deep Ensembles: On the interplay between per-group task difficulty and under-representation
- arxiv url: http://arxiv.org/abs/2501.14551v1
- Date: Fri, 24 Jan 2025 14:54:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:56:21.778441
- Title: Fairness of Deep Ensembles: On the interplay between per-group task difficulty and under-representation
- Title(参考訳): ディープ・アンサンブルの公正性:グループごとのタスクの難易度と下層表現の相互作用について
- Authors: Estanislao Claucich, Sara Hooker, Diego H. Milone, Enzo Ferrante, Rodrigo Echeveste,
- Abstract要約: 組立は、機械学習におけるモデルの一般的な性能を改善する効果的な方法として一般的に考えられている。
単純で簡単な手法が相違を緩和し、特に性能の低い部分群に利益をもたらすことを示す。
我々は,サブグループ下表現と各グループ固有の課題の難易度という,バイアスをもたらす可能性のある2つの要因間の相互作用を分析した。
- 参考スコア(独自算出の注目度): 9.11104048176204
- License:
- Abstract: Ensembling is commonly regarded as an effective way to improve the general performance of models in machine learning, while also increasing the robustness of predictions. When it comes to algorithmic fairness, heterogeneous ensembles, composed of multiple model types, have been employed to mitigate biases in terms of demographic attributes such as sex, age or ethnicity. Moreover, recent work has shown how in multi-class problems even simple homogeneous ensembles may favor performance of the worst-performing target classes. While homogeneous ensembles are simpler to implement in practice, it is not yet clear whether their benefits translate to groups defined not in terms of their target class, but in terms of demographic or protected attributes, hence improving fairness. In this work we show how this simple and straightforward method is indeed able to mitigate disparities, particularly benefiting under-performing subgroups. Interestingly, this can be achieved without sacrificing overall performance, which is a common trade-off observed in bias mitigation strategies. Moreover, we analyzed the interplay between two factors which may result in biases: sub-group under-representation and the inherent difficulty of the task for each group. These results revealed that, contrary to popular assumptions, having balanced datasets may be suboptimal if the task difficulty varies between subgroups. Indeed, we found that a perfectly balanced dataset may hurt both the overall performance and the gap between groups. This highlights the importance of considering the interaction between multiple forces at play in fairness.
- Abstract(参考訳): 組立は、機械学習におけるモデルの一般的な性能を改善する上で有効な方法であると同時に、予測の堅牢性を高めるためにも有効であると考えられている。
アルゴリズム的公正性に関して、複数のモデルタイプからなる異種アンサンブルは、性別、年齢、民族などの人口統計学的特性の観点からバイアスを軽減するために用いられてきた。
さらに、最近の研究では、単純な均質なアンサンブルでさえも、最もパフォーマンスの悪いターゲットクラスの性能を優先する多クラス問題も示している。
均質なアンサンブルは実際は実装が簡単であるが、彼らの利益が対象とするクラスではなく、人口統計学的または保護的属性の観点から定義されたグループに翻訳されるかどうかはまだ明らかになっていない。
この研究では、この単純で簡単な手法が、特に性能の低い部分群において、相違を緩和できることを示す。
興味深いことに、これは全体的なパフォーマンスを犠牲にすることなく達成できる。
さらに、サブグループ下表現と各グループ固有の課題の難易度という、バイアスをもたらす可能性のある2つの要因間の相互作用を分析した。
これらの結果は、一般的な仮定とは裏腹に、タスクの難易度がサブグループによって異なる場合、バランスの取れたデータセットが最適以下であることを示した。
実際、完全にバランスの取れたデータセットは、全体的なパフォーマンスとグループ間のギャップの両方を損なう可能性があることがわかりました。
これは、フェアネスにおける複数の力の相互作用を考慮することの重要性を強調している。
関連論文リスト
- Fair Distillation: Teaching Fairness from Biased Teachers in Medical Imaging [16.599189934420885]
本研究では,Fair Distillation (FairDi) 法を提案する。
また,FairDiの精度は,既存手法に比べて向上し,グループ別精度も向上した。
FairDiは分類やセグメンテーションなどの様々な医療タスクに適応し、公平なモデルパフォーマンスのための効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-11-18T16:50:34Z) - Simplicity Bias Leads to Amplified Performance Disparities [8.60453031364566]
SGDで訓練されたモデルは、単純さに偏りがあることを示し、多数派の学習を優先させる。
モデルは、単純なデータセットのクラスやグループを優先順位付けし、複雑なものを見つけることを犠牲にすることができる。
論文 参考訳(メタデータ) (2022-12-13T15:24:41Z) - Outlier-Robust Group Inference via Gradient Space Clustering [50.87474101594732]
既存のメソッドは、最悪のグループのパフォーマンスを改善することができるが、それらは、しばしば高価で入手できないグループアノテーションを必要とする。
モデルパラメータの勾配の空間にデータをクラスタリングすることで,アウトレーヤの存在下でグループアノテーションを学習する問題に対処する。
そこで我々は,DBSCANのような標準クラスタリング手法に適合するように,マイノリティグループや外れ値に関する情報を保存しながら,勾配空間内のデータがより単純な構造を持つことを示す。
論文 参考訳(メタデータ) (2022-10-13T06:04:43Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Contrastive Examples for Addressing the Tyranny of the Majority [83.93825214500131]
我々は,グループメンバーシップを介在する,オリジナルのデータセットと新たなデータポイントからなるバランスの取れたトレーニングデータセットを作成することを提案する。
コントラッシブ・サンプル(英語版)と呼ばれるこれらのデータポイントを学習するための強力なツールとして、現在の生成的敵ネットワークが重要であることを示す。
論文 参考訳(メタデータ) (2020-04-14T14:06:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。