論文の概要: The Disparate Benefits of Deep Ensembles
- arxiv url: http://arxiv.org/abs/2410.13831v1
- Date: Thu, 17 Oct 2024 17:53:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:21:03.137444
- Title: The Disparate Benefits of Deep Ensembles
- Title(参考訳): ディープ・アンサンブルの異なる利点
- Authors: Kajetan Schweighofer, Adrian Arnaiz-Rodriguez, Sepp Hochreiter, Nuria Oliver,
- Abstract要約: 本稿では,Deep Ensemblesのパフォーマンス向上とフェアネスの相互作用について検討する。
異なる利益効果(disparate benefit effect)と呼ぶものにおいて、それぞれが異なるグループを不均一に好んでいることが分かっています。
この不公平さを軽減するために,ポストプロセッシングが有効な方法であることを示す。
- 参考スコア(独自算出の注目度): 11.303233667605586
- License:
- Abstract: Ensembles of Deep Neural Networks, Deep Ensembles, are widely used as a simple way to boost predictive performance. However, their impact on algorithmic fairness is not well understood yet. Algorithmic fairness investigates how a model's performance varies across different groups, typically defined by protected attributes such as age, gender, or race. In this work, we investigate the interplay between the performance gains from Deep Ensembles and fairness. Our analysis reveals that they unevenly favor different groups in what we refer to as a disparate benefits effect. We empirically investigate this effect with Deep Ensembles applied to popular facial analysis and medical imaging datasets, where protected group attributes are given and find that it occurs for multiple established group fairness metrics, including statistical parity and equal opportunity. Furthermore, we identify the per-group difference in predictive diversity of ensemble members as the potential cause of the disparate benefits effect. Finally, we evaluate different approaches to reduce unfairness due to the disparate benefits effect. Our findings show that post-processing is an effective method to mitigate this unfairness while preserving the improved performance of Deep Ensembles.
- Abstract(参考訳): 深層ニューラルネットワークのアンサンブルであるDeep Ensemblesは、予測性能を高める単純な方法として広く利用されている。
しかし、アルゴリズムの公正性に対する影響は、まだよく理解されていない。
アルゴリズムフェアネスは、モデルのパフォーマンスが、年齢、性別、人種などの保護された属性によって定義される、異なるグループ間でどのように変化するかを調べる。
本研究では,Deep Ensemblesのパフォーマンス向上とフェアネスの相互作用について検討する。
分析の結果、異なる利益効果(disparate benefit effect)として、異なるグループを不均一に好んでいることが明らかとなった。
この効果を、一般的な顔分析や医用画像データセットに適用したDeep Ensemblesを用いて実証的に検討し、保護されたグループ属性が与えられ、統計パリティや平等機会を含む複数の確立されたグループフェアネス指標に対して発生することを発見した。
さらに,アンサンブルメンバーの予測多様性におけるグループごとの差異を,異なる利益効果の潜在的原因として同定した。
最後に、異なる利益効果による不公平さを低減するための異なるアプローチを評価する。
本研究は,Deep Ensemblesの改良性能を保ちながら,この不公平性を緩和するためのポストプロセッシングが有効であることを示す。
関連論文リスト
- Positive-Sum Fairness: Leveraging Demographic Attributes to Achieve Fair AI Outcomes Without Sacrificing Group Gains [0.0]
フェアネスの低下は、変化の種類や感度特性の使い方によって有害または有害な可能性があると論じる。
本論では,グループ間の格差が大きくなるようなパフォーマンスの増加が,個々のサブグループのパフォーマンスのコストを伴わない限り許容できる,というポジティブ・サム・フェアネスの概念を導入する。
論文 参考訳(メタデータ) (2024-09-30T04:37:23Z) - GroupMixNorm Layer for Learning Fair Models [4.324785083027206]
本研究では,ディープラーニングモデルからバイアスを緩和するための,内部処理に基づく新しいGroupMixNorm層を提案する。
提案手法は,全体の精度に最小限の影響を伴って,いくつかの公正度測定値を改善する。
論文 参考訳(メタデータ) (2023-12-19T09:04:26Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別しないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
非保護変数であるが、系統的な差異が示される要因は、公平性評価に大きな影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Fair Effect Attribution in Parallel Online Experiments [57.13281584606437]
A/Bテストは、オンラインサービスで導入された変更の影響を確実に特定する目的で役立ちます。
オンラインプラットフォームでは,ユーザトラフィックをランダムに分割して多数の同時実験を行うのが一般的である。
異なるグループ間の完全なランダム化にもかかわらず、同時実験は互いに相互作用し、平均的な集団の結果に負の影響をもたらす。
論文 参考訳(メタデータ) (2022-10-15T17:15:51Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Fair Bayes-Optimal Classifiers Under Predictive Parity [33.648053823193855]
本稿では、異なる保護群間での正の予測から、成功の確率を等しくする必要がある予測パリティについて考察する。
本研究では,FairBayes-DPPと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-15T04:58:10Z) - Cascaded Debiasing: Studying the Cumulative Effect of Multiple
Fairness-Enhancing Interventions [48.98659895355356]
本稿では機械学習(ML)パイプラインの異なる段階における多重公正強化介入の累積効果について検討する。
複数の介入を適用すると、集約に対する個々の介入よりも公平性と実用性が向上する。
マイナス面として、公平性向上の介入は異なる集団、特に特権集団に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-02-08T09:20:58Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Deconfounding Scores: Feature Representations for Causal Effect
Estimation with Weak Overlap [140.98628848491146]
推定対象の偏りを伴わずに高い重なりを生じさせる,デコンファウンディングスコアを導入する。
分離スコアは観測データで識別可能なゼロ共分散条件を満たすことを示す。
特に,この手法が標準正規化の魅力的な代替となることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:50:11Z) - Interpretable Assessment of Fairness During Model Evaluation [1.2183405753834562]
本稿では,階層的クラスタリングアルゴリズムを導入し,各サブ集団におけるユーザ間の不均一性を検出する。
本稿では,LinkedInの実際のデータに対して,アルゴリズムの性能を示す。
論文 参考訳(メタデータ) (2020-10-26T02:31:17Z) - Almost-Matching-Exactly for Treatment Effect Estimation under Network
Interference [73.23326654892963]
本研究では,観測ネットワーク上でユニットが接続されたランダム化実験から直接処理効果を回復するマッチング手法を提案する。
本手法は, 近傍グラフ内の一意部分グラフの個数にほぼ一致する。
論文 参考訳(メタデータ) (2020-03-02T15:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。