論文の概要: Two Simple Ways to Learn Individual Fairness Metrics from Data
- arxiv url: http://arxiv.org/abs/2006.11439v1
- Date: Fri, 19 Jun 2020 23:47:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 04:32:32.427589
- Title: Two Simple Ways to Learn Individual Fairness Metrics from Data
- Title(参考訳): データから個人の公正度を学習する2つの簡単な方法
- Authors: Debarghya Mukherjee, Mikhail Yurochkin, Moulinath Banerjee, Yuekai Sun
- Abstract要約: 個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
- 参考スコア(独自算出の注目度): 47.6390279192406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Individual fairness is an intuitive definition of algorithmic fairness that
addresses some of the drawbacks of group fairness. Despite its benefits, it
depends on a task specific fair metric that encodes our intuition of what is
fair and unfair for the ML task at hand, and the lack of a widely accepted fair
metric for many ML tasks is the main barrier to broader adoption of individual
fairness. In this paper, we present two simple ways to learn fair metrics from
a variety of data types. We show empirically that fair training with the
learned metrics leads to improved fairness on three machine learning tasks
susceptible to gender and racial biases. We also provide theoretical guarantees
on the statistical performance of both approaches.
- Abstract(参考訳): 個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
その利点にも拘わらず、目前にあるMLタスクにとって公平で不公平なものの直観を符号化するタスク固有の公正な指標に依存しており、多くのMLタスクに対して広く受け入れられている公正な指標が欠如していることが、個人の公正を広く採用する上での障壁である。
本稿では,様々なデータ型から公正なメトリクスを学習するための2つの簡単な方法を提案する。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
また,両手法の統計的性能に関する理論的保証も提供する。
関連論文リスト
- Intrinsic Fairness-Accuracy Tradeoffs under Equalized Odds [8.471466670802817]
等化確率の統計的概念の下で、公正性と精度のトレードオフについて検討する。
フェアネス予算の関数として, 精度の新たな上限を提示する。
以上の結果から,低バイアス群に対する高い精度の達成は,グループ間の統計的格差に基づいて根本的に制限される可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-12T23:15:21Z) - Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Towards Better Fairness-Utility Trade-off: A Comprehensive
Measurement-Based Reinforcement Learning Framework [7.8940121707748245]
ユーティリティを維持しながら、機械学習の公平性を確実にする方法は、難しいが重要な問題である。
本稿では,強化学習に基づくフレームワークであるCFU(Comprehensive Fairness-Utility)を提案する。
CFUは最先端の技術をすべて上回り、平均37.5%の改善が見られた。
論文 参考訳(メタデータ) (2023-07-21T06:34:41Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Identifying, measuring, and mitigating individual unfairness for
supervised learning models and application to credit risk models [3.818578543491318]
AIソリューションにおける個人の不公平性を識別し緩和することに注力する。
また,グループフェアネスを達成するために,個人フェアネスを達成する技術が有効である範囲についても検討した。
個々の不公平性軽減技術に対応する実験結果が提示される。
論文 参考訳(メタデータ) (2022-11-11T10:20:46Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - A Systematic Approach to Group Fairness in Automated Decision Making [0.0]
本論文の目的は,データ科学者に対して,グループフェアネス指標の紹介を提供することである。
我々は、公正な言明をするために、社会デマログラフィーグループをどの感覚で比較するかを考えることでこれを行おうとする。
論文 参考訳(メタデータ) (2021-09-09T12:47:15Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。