論文の概要: Pareto Efficient Fairness in Supervised Learning: From Extraction to
Tracing
- arxiv url: http://arxiv.org/abs/2104.01634v1
- Date: Sun, 4 Apr 2021 15:49:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 03:50:14.321430
- Title: Pareto Efficient Fairness in Supervised Learning: From Extraction to
Tracing
- Title(参考訳): pareto efficient fairness in supervised learning: from extraction to tracing
- Authors: Mohammad Mahdi Kamani, Rana Forsati, James Z. Wang, Mehrdad Mahdavi
- Abstract要約: アルゴリズムによる意思決定システムの普及が進んでいる。
測定と精度の本質的にのトレードオフのため、全体的な損失とその他の基準とのトレードオフを確保することが望ましい。
定義に依存しない、つまり、明確に定義された概念を PEF の概念に還元できることを意味する。
- 参考スコア(独自算出の注目度): 26.704236797908177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As algorithmic decision-making systems are becoming more pervasive, it is
crucial to ensure such systems do not become mechanisms of unfair
discrimination on the basis of gender, race, ethnicity, religion, etc.
Moreover, due to the inherent trade-off between fairness measures and accuracy,
it is desirable to learn fairness-enhanced models without significantly
compromising the accuracy. In this paper, we propose Pareto efficient Fairness
(PEF) as a suitable fairness notion for supervised learning, that can ensure
the optimal trade-off between overall loss and other fairness criteria. The
proposed PEF notion is definition-agnostic, meaning that any well-defined
notion of fairness can be reduced to the PEF notion. To efficiently find a PEF
classifier, we cast the fairness-enhanced classification as a bilevel
optimization problem and propose a gradient-based method that can guarantee the
solution belongs to the Pareto frontier with provable guarantees for convex and
non-convex objectives. We also generalize the proposed algorithmic solution to
extract and trace arbitrary solutions from the Pareto frontier for a given
preference over accuracy and fairness measures. This approach is generic and
can be generalized to any multicriteria optimization problem to trace points on
the Pareto frontier curve, which is interesting by its own right. We
empirically demonstrate the effectiveness of the PEF solution and the extracted
Pareto frontier on real-world datasets compared to state-of-the-art methods.
- Abstract(参考訳): アルゴリズムによる意思決定システムがより普及しつつあるため、性別、人種、民族、宗教などに基づいて不公平な差別のメカニズムにならないようにすることが不可欠である。
また, 公平度測定と精度のトレードオフにより, 精度を著しく損なうことなく, 公正度向上モデルを学ぶことが望ましい。
本稿では,教師付き学習において,全体損失と他のフェアネス基準との最適なトレードオフを確保するために,Pareto efficient Fairness(PEF)を提案する。
提案された PEF の概念は定義に依存しないので、公正性の概念は PEF の概念に還元することができる。
PEF分類器を効率よく見つけるために,両レベル最適化問題としてフェアネス強化分類をキャストし,凸および非凸目的に対する証明可能な保証とともに,ソリューションがパレートフロンティアに属することを保証できる勾配に基づく手法を提案する。
また,提案手法によりパレートフロンティアから任意の解を抽出・追跡し,精度と公正度を優先するアルゴリズムを一般化する。
このアプローチはジェネリックであり、パレートフロンティア曲線上のトレース点に対して、任意の多重基準最適化問題に一般化することができる。
PEFソリューションと抽出したParetoフロンティアが実世界のデータセットに与える影響を,最先端の手法と比較して実証的に実証した。
関連論文リスト
- Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Scaff-PD: Communication Efficient Fair and Robust Federated Learning [92.61502701658732]
Scaff-PDは、分散的堅牢なフェデレーション学習のための高速で通信効率のよいアルゴリズムである。
この結果から,Scaff-PDは資源制約や不均一な環境下でのフェデレーション学習において有望なアプローチであることが示唆された。
論文 参考訳(メタデータ) (2023-07-25T10:04:33Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - FaiREE: Fair Classification with Finite-Sample and Distribution-Free
Guarantee [40.10641140860374]
FaiREE は群フェアネス制約を有限サンプルと分布自由な理論保証で満たす公平な分類アルゴリズムである。
FaiREEは最先端のアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-28T05:16:20Z) - To the Fairness Frontier and Beyond: Identifying, Quantifying, and
Optimizing the Fairness-Accuracy Pareto Frontier [1.5293427903448022]
アルゴリズムフェアネスは、機械学習を用いて高い社会的決定を行う際に重要な考慮事項として現れてきた。
しかし、改善された公正さは、しばしばモデルの正確さを犠牲にする。
フェアネス・正確性トレードオフの実証的パレートフロンティアを特定し、定量化し、最適化することを模索する。
論文 参考訳(メタデータ) (2022-05-31T19:35:53Z) - The Fairness-Accuracy Pareto Front [19.556904444436523]
アルゴリズムフェアネスは、機械学習アルゴリズムのバイアス源を特定し、修正しようとする。
アルゴリズムの公正性において、この基本的な緊張を和らげるための公式なツールを提供する。
論文 参考訳(メタデータ) (2020-08-25T03:32:15Z) - Accuracy and Fairness Trade-offs in Machine Learning: A Stochastic
Multi-Objective Approach [0.0]
機械学習を実生活の意思決定システムに適用すると、予測結果は機密性の高い属性を持つ人々に対して差別され、不公平になる可能性がある。
公正機械学習における一般的な戦略は、予測損失の最小化において、制約や罰則として公正さを含めることである。
本稿では,多目的最適化問題を定式化して公平性を扱うための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-03T18:51:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。