論文の概要: To the Fairness Frontier and Beyond: Identifying, Quantifying, and
Optimizing the Fairness-Accuracy Pareto Frontier
- arxiv url: http://arxiv.org/abs/2206.00074v1
- Date: Tue, 31 May 2022 19:35:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 16:44:33.294328
- Title: To the Fairness Frontier and Beyond: Identifying, Quantifying, and
Optimizing the Fairness-Accuracy Pareto Frontier
- Title(参考訳): フェアネスフロンティアまで:フェアネス正確なパレートフロンティアを特定し、定量化し、最適化する
- Authors: Camille Olivia Little and Michael Weylandt and Genevera I Allen
- Abstract要約: アルゴリズムフェアネスは、機械学習を用いて高い社会的決定を行う際に重要な考慮事項として現れてきた。
しかし、改善された公正さは、しばしばモデルの正確さを犠牲にする。
フェアネス・正確性トレードオフの実証的パレートフロンティアを特定し、定量化し、最適化することを模索する。
- 参考スコア(独自算出の注目度): 1.5293427903448022
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Algorithmic fairness has emerged as an important consideration when using
machine learning to make high-stakes societal decisions. Yet, improved fairness
often comes at the expense of model accuracy. While aspects of the
fairness-accuracy tradeoff have been studied, most work reports the fairness
and accuracy of various models separately; this makes model comparisons nearly
impossible without a model-agnostic metric that reflects the balance of the two
desiderata. We seek to identify, quantify, and optimize the empirical Pareto
frontier of the fairness-accuracy tradeoff. Specifically, we identify and
outline the empirical Pareto frontier through
Tradeoff-between-Fairness-and-Accuracy (TAF) Curves; we then develop a metric
to quantify this Pareto frontier through the weighted area under the TAF Curve
which we term the Fairness-Area-Under-the-Curve (FAUC). TAF Curves provide the
first empirical, model-agnostic characterization of the Pareto frontier, while
FAUC provides the first metric to impartially compare model families on both
fairness and accuracy. Both TAF Curves and FAUC can be employed with all group
fairness definitions and accuracy measures. Next, we ask: Is it possible to
expand the empirical Pareto frontier and thus improve the FAUC for a given
collection of fitted models? We answer affirmately by developing a novel fair
model stacking framework, FairStacks, that solves a convex program to maximize
the accuracy of model ensemble subject to a score-bias constraint. We show that
optimizing with FairStacks always expands the empirical Pareto frontier and
improves the FAUC; we additionally study other theoretical properties of our
proposed approach. Finally, we empirically validate TAF, FAUC, and FairStacks
through studies on several real benchmark data sets, showing that FairStacks
leads to major improvements in FAUC that outperform existing algorithmic
fairness approaches.
- Abstract(参考訳): アルゴリズム的公平性は、機械学習を使って社会的意思決定を行う際に重要な考慮事項として現れてきた。
しかし、改善された公正さは、しばしばモデルの精度を犠牲にする。
公正さと精度のトレードオフの側面は研究されているが、ほとんどの研究は、様々なモデルの公正さと正確さを別々に報告している。
我々は公正・正確性トレードオフの実証的パレートフロンティアを特定し、定量化し、最適化することを目指している。
具体的には,taf曲線を用いて経験的パレートフロンティアを特定し,概説する。次に,このパレートフロンティアを,fairness-area-under-the-curve(fauc)と呼ぶtaf曲線下の重み付け領域を通じて定量化する指標を開発する。
TAF曲線はパレートフロンティアの最初の経験的、モデルに依存しない特徴を与え、FAUCはモデルファミリーを公平性と正確性の両方で公平に比較する最初の指標を提供する。
TAF曲線とFAUCは、すべてのグループフェアネス定義と精度測定に使用できる。
次に質問する: 実証的なパレートフロンティアを拡張して、与えられた適合モデルの集合に対するFAUCを改善することは可能か?
スコアバイアス制約を受けるモデルアンサンブルの精度を最大化するために凸プログラムを解く,新しいフェアモデルスタックフレームワークであるFairStacksを開発することで,肯定的に答える。
FairStacksによる最適化は、常に実証的なParetoフロンティアを拡張し、FAUCを改善することを示し、提案手法の他の理論的特性についても検討する。
最後に、いくつかの実際のベンチマークデータセットの研究を通じて、TAF、FAUC、FairStacksを実証的に検証し、FairStacksが既存のアルゴリズムの公正性アプローチよりも優れたFAUCに大きな改善をもたらすことを示した。
関連論文リスト
- Fairness-Aware Meta-Learning via Nash Bargaining [63.44846095241147]
本稿では,機械学習におけるグループレベルの公平性の問題に対処する2段階のメタ学習フレームワークを提案する。
第1段階では、過度な競合を解決するためにNash Bargaining Solution(NBS)を使用して、モデルをステアリングする。
6つのキーフェアネスデータセットと2つの画像分類タスクにおいて、様々なフェアネス目標に対して経験的効果を示す。
論文 参考訳(メタデータ) (2024-06-11T07:34:15Z) - A Theoretical Approach to Characterize the Accuracy-Fairness Trade-off
Pareto Frontier [42.18013955576355]
正確さと公正さのトレードオフは、公正な機械学習の文献でよく観察されている。
この研究は、精度-公正トレードオフの形状を特徴付けることによって理論的枠組みの開発を目指している。
提案した研究は、精度と公正性のトレードオフの深い理解を可能にし、現在の公正な機械学習研究を新たなフロンティアに押し上げる。
論文 参考訳(メタデータ) (2023-10-19T14:35:26Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Fairly Accurate: Learning Optimal Accuracy vs. Fairness Tradeoffs for
Hate Speech Detection [8.841221697099687]
本稿では,モデルトレーニングにおけるグループフェアネスの直接最適化を可能にする,微分可能な尺度を提案する。
ヘイトスピーチ検出の特定のタスクについて,本手法の評価を行った。
畳み込み、シーケンシャル、トランスフォーマーに基づくニューラルネットワークによる実験結果は、事前の作業よりも経験的精度が優れている。
論文 参考訳(メタデータ) (2022-04-15T22:11:25Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Pareto Efficient Fairness in Supervised Learning: From Extraction to
Tracing [26.704236797908177]
アルゴリズムによる意思決定システムの普及が進んでいる。
測定と精度の本質的にのトレードオフのため、全体的な損失とその他の基準とのトレードオフを確保することが望ましい。
定義に依存しない、つまり、明確に定義された概念を PEF の概念に還元できることを意味する。
論文 参考訳(メタデータ) (2021-04-04T15:49:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。