論文の概要: The Sharpe predictor for fairness in machine learning
- arxiv url: http://arxiv.org/abs/2108.06415v1
- Date: Fri, 13 Aug 2021 22:22:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 14:56:40.009028
- Title: The Sharpe predictor for fairness in machine learning
- Title(参考訳): 機械学習における公平性のシャープ予測
- Authors: Suyun Liu and Luis Nunes Vicente
- Abstract要約: 機械学習の応用においては、不公平な予測が少数派に対して差別されることがある。
フェア機械学習(FML)の既存のアプローチは、MLモデルの最適化において、フェアネスを制約またはペナル化用語として扱う。
本稿では,Multi-Objective Optimization(SMOO)に基づくFMLの新しいパラダイムを提案する。
FMLのシャープ予測器は、予測リスク(不公平)の単位当たりの最も高い予測リターン(精度)を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In machine learning (ML) applications, unfair predictions may discriminate
against a minority group. Most existing approaches for fair machine learning
(FML) treat fairness as a constraint or a penalization term in the optimization
of a ML model, which does not lead to the discovery of the complete landscape
of the trade-offs among learning accuracy and fairness metrics, and does not
integrate fairness in a meaningful way.
Recently, we have introduced a new paradigm for FML based on Stochastic
Multi-Objective Optimization (SMOO), where accuracy and fairness metrics stand
as conflicting objectives to be optimized simultaneously. The entire trade-offs
range is defined as the Pareto front of the SMOO problem, which can then be
efficiently computed using stochastic-gradient type algorithms. SMOO also
allows defining and computing new meaningful predictors for FML, a novel one
being the Sharpe predictor that we introduce and explore in this paper, and
which gives the highest ratio of accuracy-to-unfairness. Inspired from SMOO in
finance, the Sharpe predictor for FML provides the highest prediction return
(accuracy) per unit of prediction risk (unfairness).
- Abstract(参考訳): 機械学習(ML)アプリケーションでは、不公平な予測が少数派に対して差別されることがある。
fair machine learning(fml)の既存のアプローチのほとんどは、機械学習モデルの最適化においてフェアネスを制約あるいはペナリゼーション用語として扱うが、これは正確さとフェアネスメトリクスの学習におけるトレードオフの完全なランドスケープの発見につながり、フェアネスを有意義な方法で統合しない。
近年,Stochastic Multi-Objective Optimization (SMOO)に基づくFMLの新しいパラダイムを導入している。
トレードオフ範囲全体はSMOO問題のParetoフロントとして定義され、確率勾配型アルゴリズムを用いて効率的に計算できる。
SMOOはまた、FMLの新たな有意義な予測器の定義と計算を可能にし、この論文で紹介したシャープ予測器は、新しいもので、精度と不公平の比率が最も高い。
金融のSMOOからインスパイアされたFMLのシャープ予測器は、予測リスク(不公平性)の単位当たりの最も高い予測リターン(精度)を提供する。
関連論文リスト
- Scaling Laws for Predicting Downstream Performance in LLMs [75.28559015477137]
この研究は、性能評価のためのより効率的な指標として、事前学習損失に焦点を当てている。
我々は、データソース間のFLOPに基づいて、ドメイン固有の事前学習損失を予測するために、電力法解析関数を拡張した。
我々は2層ニューラルネットワークを用いて、複数のドメイン固有の損失と下流性能の非線形関係をモデル化する。
論文 参考訳(メタデータ) (2024-10-11T04:57:48Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - On the Maximal Local Disparity of Fairness-Aware Classifiers [35.98015221840018]
種々の予測近傍(MCDP)に沿った最大累積比差という新しい公正度尺度を提案する。
MCDPを精度よく効率的に計算するために,推定誤差の少ない計算複雑性を大幅に低減する,証明可能な精度と近似計算アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-06-05T13:35:48Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - f-FERM: A Scalable Framework for Robust Fair Empirical Risk Minimization [9.591164070876689]
本稿では、f-divergence measures(f-FERM)に基づく公正な経験的リスクに対する統一的な最適化フレームワークを提案する。
さらに,f-FERMによるほぼ全てのバッチサイズに対するフェアネス・精度トレードオフの優位性を実証した。
我々の拡張は、不確実集合として$L_p$ノルムの下で f-FERM の目的を分布的に頑健に最適化する手法に基づいている。
論文 参考訳(メタデータ) (2023-12-06T03:14:16Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Variational Factorization Machines for Preference Elicitation in
Large-Scale Recommender Systems [17.050774091903552]
本稿では, 標準のミニバッチ降下勾配を用いて容易に最適化できる因子化機械 (FM) の変分定式化を提案する。
提案アルゴリズムは,ユーザおよび項目パラメータに近似した後続分布を学習し,予測に対する信頼区間を導出する。
いくつかのデータセットを用いて、予測精度の点で既存の手法と同等または優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-20T00:06:28Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - Efficient and Differentiable Conformal Prediction with General Function
Classes [96.74055810115456]
本稿では,複数の学習可能なパラメータに対する共形予測の一般化を提案する。
本研究は, クラス内において, ほぼ有効な人口被覆率, ほぼ最適効率を実現していることを示す。
実験の結果,提案アルゴリズムは有効な予測セットを学習し,効率を著しく向上できることがわかった。
論文 参考訳(メタデータ) (2022-02-22T18:37:23Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z) - Accuracy and Fairness Trade-offs in Machine Learning: A Stochastic
Multi-Objective Approach [0.0]
機械学習を実生活の意思決定システムに適用すると、予測結果は機密性の高い属性を持つ人々に対して差別され、不公平になる可能性がある。
公正機械学習における一般的な戦略は、予測損失の最小化において、制約や罰則として公正さを含めることである。
本稿では,多目的最適化問題を定式化して公平性を扱うための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-03T18:51:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。