論文の概要: The Flawed Foundations of Fair Machine Learning
- arxiv url: http://arxiv.org/abs/2306.01417v1
- Date: Fri, 2 Jun 2023 10:07:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 15:45:02.676642
- Title: The Flawed Foundations of Fair Machine Learning
- Title(参考訳): 公平な機械学習の基礎の欠陥
- Authors: Robert Lee Poe and Soumia Zohra El Mestari
- Abstract要約: 統計的に正確な結果と類似した結果とのトレードオフが存在することを示す。
本稿では,統計的に正確な結果とグループ類似の結果の関係を理解する上で,研究者やデザイナーを支援するための概念実証手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The definition and implementation of fairness in automated decisions has been
extensively studied by the research community. Yet, there hides fallacious
reasoning, misleading assertions, and questionable practices at the foundations
of the current fair machine learning paradigm. Those flaws are the result of a
failure to understand that the trade-off between statistically accurate
outcomes and group similar outcomes exists as independent, external constraint
rather than as a subjective manifestation as has been commonly argued. First,
we explain that there is only one conception of fairness present in the fair
machine learning literature: group similarity of outcomes based on a sensitive
attribute where the similarity benefits an underprivileged group. Second, we
show that there is, in fact, a trade-off between statistically accurate
outcomes and group similar outcomes in any data setting where group disparities
exist, and that the trade-off presents an existential threat to the equitable,
fair machine learning approach. Third, we introduce a proof-of-concept
evaluation to aid researchers and designers in understanding the relationship
between statistically accurate outcomes and group similar outcomes. Finally,
suggestions for future work aimed at data scientists, legal scholars, and data
ethicists that utilize the conceptual and experimental framework described
throughout this article are provided.
- Abstract(参考訳): 自動決定における公正の定義と実装は、研究コミュニティによって広く研究されている。
しかし、現在の公正な機械学習パラダイムの基礎には、誤った推論、誤解を招く主張、疑わしいプラクティスが隠されている。
これらの欠陥は、統計的に正確な結果と類似した結果の間のトレードオフが、一般的に議論された主観的表現としてではなく、独立した外部制約として存在することを理解できない結果である。
まず、公正な機械学習文献にはフェアネスの概念が1つだけ存在すると説明する: 類似性が劣悪なグループに利益をもたらすセンシティブな属性に基づく結果の群類似性。
第2に,統計的に正確な結果と,グループ格差が存在する任意のデータセットにおける類似結果とのトレードオフが存在すること,公平で公平な機械学習アプローチに対して,そのトレードオフが存在の脅威であることを示す。
第3に、統計的に正確な結果とグループ類似の結果の関係を理解するために、研究者やデザイナーに概念実証評価を導入する。
最後に、本論文で述べられている概念的および実験的枠組みを利用したデータ科学者、法学者、データ倫理学者を対象とした今後の研究の提案について述べる。
関連論文リスト
- Fairness Evaluation with Item Response Theory [10.871079276188649]
本稿では機械学習(ML)モデルにおける公平性を評価するための新しいFair-IRTフレームワークを提案する。
項目特性曲線(ICC)の詳細な説明は、特定の個人に対して提供される。
公平性評価ツールとしてのこのフレームワークの有効性を実証する実験を行った。
論文 参考訳(メタデータ) (2024-10-20T22:25:20Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Counterfactually Fair Regression with Double Machine Learning [0.0]
本稿では,Double Machine Learning (DML) Fairnessを提案する。
回帰問題における反ファクト的公平性の問題を因果推論における反ファクト的結果の推定問題に類似させる。
本研究は、職場雇用における差別に関するシミュレーション研究におけるアプローチと、法学部学生のGPAを推定する実データへの適用を実証する。
論文 参考訳(メタデータ) (2023-03-21T01:28:23Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Error Parity Fairness: Testing for Group Fairness in Regression Tasks [5.076419064097733]
この研究は、回帰フェアネスの概念としてエラーパリティを示し、グループフェアネスを評価するためのテスト手法を導入する。
続いて、いくつかの統計上のグループを比較し、格差を探索し、影響されたグループを特定するのに適した置換テストが実施される。
全体として、提案された回帰公正性テスト手法は、公正な機械学習文献のギャップを埋め、より大きなアカウンタビリティ評価とアルゴリズム監査の一部として機能する可能性がある。
論文 参考訳(メタデータ) (2022-08-16T17:47:20Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fairness Through Counterfactual Utilities [0.0]
Demographic Parity や Equal Opportunity のようなグループフェアネスの定義は、それらが分類問題に制限される基本的な決定確率について仮定する。
我々は、すべての機械学習環境に明確に拡張されたグループフェアネス定義の一般化セットを提供する。
論文 参考訳(メタデータ) (2021-08-11T16:51:27Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。