論文の概要: The Disparate Benefits of Deep Ensembles
- arxiv url: http://arxiv.org/abs/2410.13831v2
- Date: Wed, 04 Jun 2025 18:48:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-07 00:22:22.395183
- Title: The Disparate Benefits of Deep Ensembles
- Title(参考訳): ディープ・アンサンブルの異なる利点
- Authors: Kajetan Schweighofer, Adrian Arnaiz-Rodriguez, Sepp Hochreiter, Nuria Oliver,
- Abstract要約: アルゴリズムフェアネスは、モデルのパフォーマンスが社会的に関係のあるグループによってどのように変化するかを調べる。
ディープ・アンサンブルは異なるグループを不均一に好んでいる。
アンサンブルメンバーの予測多様性におけるグループごとの差異は、この効果を説明することができる。
- 参考スコア(独自算出の注目度): 11.303233667605586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensembles of Deep Neural Networks, Deep Ensembles, are widely used as a simple way to boost predictive performance. However, their impact on algorithmic fairness is not well understood yet. Algorithmic fairness examines how a model's performance varies across socially relevant groups defined by protected attributes such as age, gender, or race. In this work, we explore the interplay between the performance gains from Deep Ensembles and fairness. Our analysis reveals that they unevenly favor different groups, a phenomenon that we term the disparate benefits effect. We empirically investigate this effect using popular facial analysis and medical imaging datasets with protected group attributes and find that it affects multiple established group fairness metrics, including statistical parity and equal opportunity. Furthermore, we identify that the per-group differences in predictive diversity of ensemble members can explain this effect. Finally, we demonstrate that the classical Hardt post-processing method is particularly effective at mitigating the disparate benefits effect of Deep Ensembles by leveraging their better-calibrated predictive distributions.
- Abstract(参考訳): 深層ニューラルネットワークのアンサンブルであるDeep Ensemblesは、予測性能を高める単純な方法として広く利用されている。
しかし、アルゴリズムの公正性に対する影響は、まだよく理解されていない。
アルゴリズムフェアネス(アルゴリズムフェアネス)は、年齢、性別、人種などの保護属性によって定義された社会的に関係のあるグループ間でモデルのパフォーマンスがどのように変化するかを調べる。
本研究では,Deep Ensemblesのパフォーマンス向上とフェアネスの相互作用について検討する。
分析の結果,異なるグループを不均一に選好していることが判明した。
本研究は,グループ属性を保護した一般的な顔分析と医用画像データセットを用いて,この効果を実証的に検討し,統計的パリティや平等機会を含む,複数の確立されたグループフェアネス指標に影響を与えることを発見した。
さらに,アンサンブルメンバーの予測多様性におけるグループごとの差異が,この効果を説明できることを明らかにした。
最後に,従来のHardtポストプロセッシング法は,よりキャリブレーションのよい予測分布を利用することで,Deep Ensemblesの異なるメリット効果を緩和する上で特に有効であることを示す。
関連論文リスト
- Consistent Causal Inference of Group Effects in Non-Targeted Trials with Finitely Many Effect Levels [5.006064616335817]
非パラメトリックな臨床試験では、疾患と健康な被験者の両方が治療され、治療群内で不均一な効果が生じる。
病人に対する正しい治療効果の推測は、異なる集団に対する効果が絡み合うため困難である。
我々は、bf PCM (pre-targeted and merge) と呼ばれる、群効果を推定するための効率的な非アプローチを提案する。
論文 参考訳(メタデータ) (2025-04-22T12:51:07Z) - Fairness of Deep Ensembles: On the interplay between per-group task difficulty and under-representation [9.11104048176204]
組立は、機械学習におけるモデルの一般的な性能を改善する効果的な方法として一般的に考えられている。
単純で簡単な手法が相違を緩和し、特に性能の低い部分群に利益をもたらすことを示す。
我々は,サブグループ下表現と各グループ固有の課題の難易度という,バイアスをもたらす可能性のある2つの要因間の相互作用を分析した。
論文 参考訳(メタデータ) (2025-01-24T14:54:01Z) - Positive-Sum Fairness: Leveraging Demographic Attributes to Achieve Fair AI Outcomes Without Sacrificing Group Gains [0.0]
フェアネスの低下は、変化の種類や感度特性の使い方によって有害または有害な可能性があると論じる。
本論では,グループ間の格差が大きくなるようなパフォーマンスの増加が,個々のサブグループのパフォーマンスのコストを伴わない限り許容できる,というポジティブ・サム・フェアネスの概念を導入する。
論文 参考訳(メタデータ) (2024-09-30T04:37:23Z) - GroupMixNorm Layer for Learning Fair Models [4.324785083027206]
本研究では,ディープラーニングモデルからバイアスを緩和するための,内部処理に基づく新しいGroupMixNorm層を提案する。
提案手法は,全体の精度に最小限の影響を伴って,いくつかの公正度測定値を改善する。
論文 参考訳(メタデータ) (2023-12-19T09:04:26Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Fair Effect Attribution in Parallel Online Experiments [57.13281584606437]
A/Bテストは、オンラインサービスで導入された変更の影響を確実に特定する目的で役立ちます。
オンラインプラットフォームでは,ユーザトラフィックをランダムに分割して多数の同時実験を行うのが一般的である。
異なるグループ間の完全なランダム化にもかかわらず、同時実験は互いに相互作用し、平均的な集団の結果に負の影響をもたらす。
論文 参考訳(メタデータ) (2022-10-15T17:15:51Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Fair Bayes-Optimal Classifiers Under Predictive Parity [33.648053823193855]
本稿では、異なる保護群間での正の予測から、成功の確率を等しくする必要がある予測パリティについて考察する。
本研究では,FairBayes-DPPと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-15T04:58:10Z) - Cascaded Debiasing: Studying the Cumulative Effect of Multiple
Fairness-Enhancing Interventions [48.98659895355356]
本稿では機械学習(ML)パイプラインの異なる段階における多重公正強化介入の累積効果について検討する。
複数の介入を適用すると、集約に対する個々の介入よりも公平性と実用性が向上する。
マイナス面として、公平性向上の介入は異なる集団、特に特権集団に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-02-08T09:20:58Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Deconfounding Scores: Feature Representations for Causal Effect
Estimation with Weak Overlap [140.98628848491146]
推定対象の偏りを伴わずに高い重なりを生じさせる,デコンファウンディングスコアを導入する。
分離スコアは観測データで識別可能なゼロ共分散条件を満たすことを示す。
特に,この手法が標準正規化の魅力的な代替となることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:50:11Z) - Interpretable Assessment of Fairness During Model Evaluation [1.2183405753834562]
本稿では,階層的クラスタリングアルゴリズムを導入し,各サブ集団におけるユーザ間の不均一性を検出する。
本稿では,LinkedInの実際のデータに対して,アルゴリズムの性能を示す。
論文 参考訳(メタデータ) (2020-10-26T02:31:17Z) - Almost-Matching-Exactly for Treatment Effect Estimation under Network
Interference [73.23326654892963]
本研究では,観測ネットワーク上でユニットが接続されたランダム化実験から直接処理効果を回復するマッチング手法を提案する。
本手法は, 近傍グラフ内の一意部分グラフの個数にほぼ一致する。
論文 参考訳(メタデータ) (2020-03-02T15:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。