論文の概要: Survey on Fairness Notions and Related Tensions
- arxiv url: http://arxiv.org/abs/2209.13012v2
- Date: Mon, 19 Jun 2023 11:19:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 05:39:30.841724
- Title: Survey on Fairness Notions and Related Tensions
- Title(参考訳): 公正な表記と関係張力に関する調査
- Authors: Guilherme Alves, Fabien Bernier, Miguel Couceiro, Karima Makhlouf,
Catuscia Palamidessi, Sami Zhioua
- Abstract要約: 自動化された意思決定システムは、雇用やローンの貸与といった問題において、逐次的な決定を下すのにますます使われています。
しかし、客観的機械学習(ML)アルゴリズムはバイアスを起こしやすいため、不公平な判断を下す。
本稿では、一般的に使われている公正概念を調査し、プライバシと精度で両者間の緊張関係について論じる。
- 参考スコア(独自算出の注目度): 4.257210316104905
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Automated decision systems are increasingly used to take consequential
decisions in problems such as job hiring and loan granting with the hope of
replacing subjective human decisions with objective machine learning (ML)
algorithms. However, ML-based decision systems are prone to bias, which results
in yet unfair decisions. Several notions of fairness have been defined in the
literature to capture the different subtleties of this ethical and social
concept (e.g., statistical parity, equal opportunity, etc.). Fairness
requirements to be satisfied while learning models created several types of
tensions among the different notions of fairness and other desirable properties
such as privacy and classification accuracy. This paper surveys the commonly
used fairness notions and discusses the tensions among them with privacy and
accuracy. Different methods to address the fairness-accuracy trade-off
(classified into four approaches, namely, pre-processing, in-processing,
post-processing, and hybrid) are reviewed. The survey is consolidated with
experimental analysis carried out on fairness benchmark datasets to illustrate
the relationship between fairness measures and accuracy in real-world
scenarios.
- Abstract(参考訳): 自動決定システムは、主観的な人的決定を客観的機械学習(ML)アルゴリズムに置き換えることを願って、雇用や融資といった問題において、連続的な決定を下すためにますます使われています。
しかし、MLベースの意思決定システムはバイアスを起こしやすいため、不公平な判断につながる。
公平性のいくつかの概念は、この倫理的・社会的概念の異なる微妙さ(例えば、統計的平等、平等機会など)を捉えるために文献で定義されている。
学習モデルにおいて満足すべき公平性要件は、公正性の概念と、プライバシーや分類精度といったその他の望ましい特性の間に、いくつかのタイプの緊張を生み出した。
本稿では,一般的なフェアネス概念を調査し,プライバシと正確性で両者の緊張関係を考察する。
フェアネス・正確性トレードオフ(前処理、内処理、後処理、ハイブリッドという4つのアプローチに分類される)に対処するさまざまな手法を概観する。
この調査は、フェアネスベンチマークデータセットで実施した実験分析と統合され、実世界のシナリオにおけるフェアネス測定と精度の関係を説明する。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems [5.076419064097733]
本稿では,公正度の自動判定システムをチェックするための等混乱公正度試験と,不公平度を定量化するための新しい混乱パリティ誤差を提案する。
全体として、ここで提供される方法とメトリクスは、より広範な説明責任評価の一環として、自動決定システムの公正性を評価することができる。
論文 参考訳(メタデータ) (2023-07-02T04:44:19Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - When mitigating bias is unfair: multiplicity and arbitrariness in algorithmic group fairness [8.367620276482056]
本稿では,5次元によるバイアス緩和を評価するFRAME(FaiRness Arbitrariness and Multiplicity Evaluation)フレームワークを紹介する。
FRAMEをキーデータセット全体にわたる様々なバイアス緩和アプローチに適用することにより、デバイアス手法の挙動に顕著な違いを示すことができる。
これらの知見は、現在の公平性基準の限界と、偏見過程における固有の仲裁性を強調している。
論文 参考訳(メタデータ) (2023-02-14T16:53:52Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - What-is and How-to for Fairness in Machine Learning: A Survey,
Reflection, and Perspective [13.124434298120494]
機械学習文学においてこれまで提案されてきたフェアネスの概念を概観し,考察する。
また、現在の予測と決定によって引き起こされる長期的な影響についても検討する。
本稿では、目的を達成するために、ミッション(どんな公正を強制したいのか)と手段(どの公正分析が興味を持つのか)を一致させることの重要性を示す。
論文 参考訳(メタデータ) (2022-06-08T18:05:46Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。