論文の概要: The Measure and Mismeasure of Fairness
- arxiv url: http://arxiv.org/abs/1808.00023v3
- Date: Mon, 14 Aug 2023 19:14:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 17:55:52.067547
- Title: The Measure and Mismeasure of Fairness
- Title(参考訳): 公平さの尺度と誤測定
- Authors: Sam Corbett-Davies, Johann D. Gaebler, Hamed Nilforoshan, Ravi Shroff,
and Sharad Goel
- Abstract要約: 我々は、アルゴリズムの公平な設計は、それらの文脈固有の結果に不満を抱く必要があると論じる。
私たちは、アルゴリズムがポリシーの目標に適合するようにするための戦略を提供します。
- 参考スコア(独自算出の注目度): 6.6697126372463345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of fair machine learning aims to ensure that decisions guided by
algorithms are equitable. Over the last decade, several formal, mathematical
definitions of fairness have gained prominence. Here we first assemble and
categorize these definitions into two broad families: (1) those that constrain
the effects of decisions on disparities; and (2) those that constrain the
effects of legally protected characteristics, like race and gender, on
decisions. We then show, analytically and empirically, that both families of
definitions typically result in strongly Pareto dominated decision policies.
For example, in the case of college admissions, adhering to popular formal
conceptions of fairness would simultaneously result in lower student-body
diversity and a less academically prepared class, relative to what one could
achieve by explicitly tailoring admissions policies to achieve desired
outcomes. In this sense, requiring that these fairness definitions hold can,
perversely, harm the very groups they were designed to protect. In contrast to
axiomatic notions of fairness, we argue that the equitable design of algorithms
requires grappling with their context-specific consequences, akin to the
equitable design of policy. We conclude by listing several open challenges in
fair machine learning and offering strategies to ensure algorithms are better
aligned with policy goals.
- Abstract(参考訳): 公平な機械学習の分野は、アルゴリズムによって導かれる決定が公平であることを保証することを目的としている。
過去10年間で、フォーマルで数学的にフェアネスの定義が有名になった。
ここでは、まず、これらの定義を、(1)格差に対する決定の影響を制限するもの、(2)人種や性別といった法的に保護された特徴が決定に与える影響を制限するもの、の2つに分類する。
次に、分析的かつ実証的に、どちらの定義の家族も、通常、パレートが決定政策を強く支配する結果をもたらすことを示した。
例えば、大学入学の場合、フェアネスという一般的なフォーマルな概念に固執すると、望ましい結果を達成するために入学政策を明示的に調整することで達成できることと比べ、生徒の多様性が低下し、学術的に準備されていないクラスになる。
この意味では、これらの公正の定義が保持されることは、それらを保護するように設計されたグループを、逆に損なうことができる。
公正性の公理的概念とは対照的に、アルゴリズムの等式設計は、ポリシーの等式設計に類似した文脈特異的な結果に対応する必要があると論じる。
我々は、公正な機械学習におけるいくつかのオープンな課題を列挙し、アルゴリズムがポリシーの目標に合うようにするための戦略を提供する。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Causal Conceptions of Fairness and their Consequences [1.9006392177894293]
アルゴリズムフェアネスの因果的定義の2つのファミリーが、決定ポリシーを強く支配する結果をもたらすことを示す。
結果として得られた政策は、学術的資格やグループメンバーシップに関係なく、すべての学生に同じ確率で受け入れる必要があることを証明します。
論文 参考訳(メタデータ) (2022-07-12T04:26:26Z) - Legal perspective on possible fairness measures - A legal discussion
using the example of hiring decisions (preprint) [0.0]
雇用決定の特定の適用に適用可能な、さまざまな公正の概念を説明します。
本研究は,それぞれの公正解釈について,その長所と短所を分析し,法的観点から評価する。
論文 参考訳(メタデータ) (2021-08-16T06:41:39Z) - Fairness Through Counterfactual Utilities [0.0]
Demographic Parity や Equal Opportunity のようなグループフェアネスの定義は、それらが分類問題に制限される基本的な決定確率について仮定する。
我々は、すべての機械学習環境に明確に拡張されたグループフェアネス定義の一般化セットを提供する。
論文 参考訳(メタデータ) (2021-08-11T16:51:27Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - Inherent Trade-offs in the Fair Allocation of Treatments [2.6143568807090696]
明示的で暗黙的な偏見は人間の判断を曇らせ、少数民族の差別的扱いに繋がる。
フェアネス制約を考慮したデータから最適な介入ポリシーを学習する因果的枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-30T17:55:00Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Balancing Competing Objectives with Noisy Data: Score-Based Classifiers
for Welfare-Aware Machine Learning [43.518329314620416]
我々は、私的目的(利益など)と公共目的(社会福祉など)とを明確にトレードオフするアルゴリズム政策を研究する。
我々の結果は、社会福祉に影響を与える決定に機械学習を使うことにおける本質的にのトレードオフを浮き彫りにした。
論文 参考訳(メタデータ) (2020-03-15T02:49:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。