論文の概要: Superhuman Fairness
- arxiv url: http://arxiv.org/abs/2301.13420v1
- Date: Tue, 31 Jan 2023 05:23:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 17:35:21.084559
- Title: Superhuman Fairness
- Title(参考訳): 超人フェアネス
- Authors: Omid Memarrast, Linh Vu, Brian Ziebart
- Abstract要約: 超人フェアネスを導入することで、フェア機械学習を模倣学習タスクとして再考する。
最適以下の決定を下すと、このアプローチの利点を実証する。
- 参考スコア(独自算出の注目度): 2.610470075814367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The fairness of machine learning-based decisions has become an increasingly
important focus in the design of supervised machine learning methods. Most
fairness approaches optimize a specified trade-off between performance
measure(s) (e.g., accuracy, log loss, or AUC) and fairness metric(s) (e.g.,
demographic parity, equalized odds). This begs the question: are the right
performance-fairness trade-offs being specified? We instead re-cast fair
machine learning as an imitation learning task by introducing superhuman
fairness, which seeks to simultaneously outperform human decisions on multiple
predictive performance and fairness measures. We demonstrate the benefits of
this approach given suboptimal decisions.
- Abstract(参考訳): 機械学習に基づく意思決定の公平性は、教師あり機械学習手法の設計においてますます重要になっている。
ほとんどのフェアネスアプローチは、パフォーマンス測度(例えば、精度、ログ損失、AUC)とフェアネス測度(例えば、人口統計学的パリティ、等化奇数)の間の特定のトレードオフを最適化する。
適切なパフォーマンスと公正のトレードオフは指定されているのか?
代わりに、複数の予測性能と公平性尺度で人間の決定を上回らせるスーパーヒューマンフェアネスを導入することで、模倣学習タスクとして公正な機械学習を再キャストする。
私たちはこのアプローチの利点を最適でない決定で示します。
関連論文リスト
- Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z) - Accuracy and Fairness Trade-offs in Machine Learning: A Stochastic
Multi-Objective Approach [0.0]
機械学習を実生活の意思決定システムに適用すると、予測結果は機密性の高い属性を持つ人々に対して差別され、不公平になる可能性がある。
公正機械学習における一般的な戦略は、予測損失の最小化において、制約や罰則として公正さを含めることである。
本稿では,多目的最適化問題を定式化して公平性を扱うための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-03T18:51:24Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z) - Do the Machine Learning Models on a Crowd Sourced Platform Exhibit Bias?
An Empirical Study on Model Fairness [7.673007415383724]
5つの異なるタスクに使用したKaggleから、40の上位モデルのベンチマークを作成しました。
これらのモデルに7つの緩和手法を適用し、公正性、緩和結果、および性能への影響を分析した。
論文 参考訳(メタデータ) (2020-05-21T23:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。