論文の概要: Machine learning fairness notions: Bridging the gap with real-world
applications
- arxiv url: http://arxiv.org/abs/2006.16745v5
- Date: Tue, 7 Jun 2022 17:59:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 04:28:05.362118
- Title: Machine learning fairness notions: Bridging the gap with real-world
applications
- Title(参考訳): 機械学習の公平性概念: 現実世界のアプリケーションでギャップを埋める
- Authors: Karima Makhlouf, Sami Zhioua, Catuscia Palamidessi
- Abstract要約: フェアネスは、機械学習予測システムが特定の個人やサブ人口全体に対して差別しないことを保証する重要な要件として現れた。
本稿では,多くの事例とシナリオを通じて,公平性の概念間の微妙な関係について述べる。
- 参考スコア(独自算出の注目度): 4.157415305926584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness emerged as an important requirement to guarantee that Machine
Learning (ML) predictive systems do not discriminate against specific
individuals or entire sub-populations, in particular, minorities. Given the
inherent subjectivity of viewing the concept of fairness, several notions of
fairness have been introduced in the literature. This paper is a survey that
illustrates the subtleties between fairness notions through a large number of
examples and scenarios. In addition, unlike other surveys in the literature, it
addresses the question of: which notion of fairness is most suited to a given
real-world scenario and why? Our attempt to answer this question consists in
(1) identifying the set of fairness-related characteristics of the real-world
scenario at hand, (2) analyzing the behavior of each fairness notion, and then
(3) fitting these two elements to recommend the most suitable fairness notion
in every specific setup. The results are summarized in a decision diagram that
can be used by practitioners and policymakers to navigate the relatively large
catalog of ML.
- Abstract(参考訳): フェアネスは、機械学習(ML)予測システムが特定の個人やサブ人口全体、特にマイノリティに対して差別しないことを保証する重要な要件として現れた。
公正の概念を見るという本質的な主観性を考えると、フェアネスの概念は文献にいくつか導入されている。
本稿は,多くの例とシナリオを通して,公平性概念間の微妙な違いを説明する調査である。
さらに、文学における他の調査とは違って、フェアネスの概念は、与えられた現実世界のシナリオに最も適しているのか、なぜなのか?
この質問に答える試みは,(1)実世界のシナリオのフェアネス関連特性のセットを特定すること,(2)各フェアネス概念の挙動を分析すること,(3)これら2つの要素を適合させて,特定の設定ごとに最も適切なフェアネス概念を推奨すること,である。
結果は、実践者や政策立案者が比較的大規模なMLカタログをナビゲートするために使用できる決定図にまとめられている。
関連論文リスト
- DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - What-is and How-to for Fairness in Machine Learning: A Survey,
Reflection, and Perspective [13.124434298120494]
機械学習文学においてこれまで提案されてきたフェアネスの概念を概観し,考察する。
また、現在の予測と決定によって引き起こされる長期的な影響についても検討する。
本稿では、目的を達成するために、ミッション(どんな公正を強制したいのか)と手段(どの公正分析が興味を持つのか)を一致させることの重要性を示す。
論文 参考訳(メタデータ) (2022-06-08T18:05:46Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fair Representation: Guaranteeing Approximate Multiple Group Fairness
for Unknown Tasks [17.231251035416648]
本研究では,未知のタスクに対して公平性を保証し,複数のフェアネス概念を同時に活用できるかどうかを考察する。
公平な表現は全ての予測タスクに対して公平性を保証するわけではないが、重要なタスクのサブセットに対して公平性を保証する。
論文 参考訳(メタデータ) (2021-09-01T17:29:11Z) - Fairness Through Counterfactual Utilities [0.0]
Demographic Parity や Equal Opportunity のようなグループフェアネスの定義は、それらが分類問題に制限される基本的な決定確率について仮定する。
我々は、すべての機械学習環境に明確に拡張されたグループフェアネス定義の一般化セットを提供する。
論文 参考訳(メタデータ) (2021-08-11T16:51:27Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z) - Survey on Causal-based Machine Learning Fairness Notions [4.157415305926584]
本稿では,因果関係に基づくフェアネス概念の包括的リストについて検討し,実世界のシナリオにおける適用性について検討する。
因果関係に基づく公平性の概念の大部分は、観測不可能な量という観点で定義されるため、実際にはそれらの量を計算するか、見積もる必要がある。
論文 参考訳(メタデータ) (2020-10-19T14:28:55Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。