論文の概要: What Is Fairness? On the Role of Protected Attributes and Fictitious Worlds
- arxiv url: http://arxiv.org/abs/2205.09622v5
- Date: Mon, 3 Jun 2024 08:02:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 23:55:24.648787
- Title: What Is Fairness? On the Role of Protected Attributes and Fictitious Worlds
- Title(参考訳): 公正とは何か : 保護された属性と架空の世界の役割について
- Authors: Ludwig Bothmann, Kristina Peters, Bernd Bischl,
- Abstract要約: フェアネス対応機械学習(fairML)における文献の増大は、自動意思決定(ADM)における機械学習(ML)に関連する不公平性を緩和することを目的としている。
しかしながら、フェアネスの概念の根底にある概念は、何世紀にもわたって哲学的な議論と、MLコミュニティにおけるこの概念の最近の採用との間に大きなギャップを残している、ほとんど議論されない。
公平性という一貫した概念を定式化し、哲学的考察をADMシステムにおけるMLモデルのトレーニングと評価のための形式的枠組みに変換することにより、このギャップを埋めようとしている。
- 参考スコア(独自算出の注目度): 8.223468651994352
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A growing body of literature in fairness-aware machine learning (fairML) aims to mitigate machine learning (ML)-related unfairness in automated decision-making (ADM) by defining metrics that measure fairness of an ML model and by proposing methods to ensure that trained ML models achieve low scores on these metrics. However, the underlying concept of fairness, i.e., the question of what fairness is, is rarely discussed, leaving a significant gap between centuries of philosophical discussion and the recent adoption of the concept in the ML community. In this work, we try to bridge this gap by formalizing a consistent concept of fairness and by translating the philosophical considerations into a formal framework for the training and evaluation of ML models in ADM systems. We argue that fairness problems can arise even without the presence of protected attributes (PAs), and point out that fairness and predictive performance are not irreconcilable opposites, but that the latter is necessary to achieve the former. Furthermore, we argue why and how causal considerations are necessary when assessing fairness in the presence of PAs by proposing a fictitious, normatively desired (FiND) world in which PAs have no causal effects. In practice, this FiND world must be approximated by a warped world in which the causal effects of the PAs are removed from the real-world data. Finally, we achieve greater linguistic clarity in the discussion of fairML. We outline algorithms for practical applications and present illustrative experiments on COMPAS data.
- Abstract(参考訳): フェアネス対応機械学習(fairML)における文献の増大は、機械学習(ML)に関連する不公平さを自動意思決定(ADM)で軽減することを目的としており、MLモデルの公正性を測定するメトリクスを定義し、トレーニングされたMLモデルがこれらのメトリクスで低いスコアを達成するようにする方法を提案する。
しかしながら、公正とは何かという根本的な概念は、何世紀にもわたって哲学的な議論と近年のMLコミュニティにおける概念の採用との間に大きなギャップを残しているため、ほとんど議論されない。
本研究では,公正性という一貫した概念を定式化し,哲学的考察をADMシステムにおけるMLモデルのトレーニングと評価のための形式的枠組みに変換することにより,このギャップを埋めようとしている。
我々は,保護属性(PA)がなくても公平性の問題が発生することを論じ,公正性と予測性能は相反するものではなく,前者を達成するためには後者が必要であることを指摘する。
さらに, PAが因果的影響を持たない架空の規範的(FiND)世界を提案することによって, PAの存在の公平性を評価する上で, 因果的配慮がなぜ必要かについて議論する。
実際には、このFiND世界は、実世界のデータからPAの因果効果を除去する歪んだ世界によって近似されなければならない。
最後に,fairMLの議論において,言語的明瞭度の向上を図っている。
実用化のためのアルゴリズムの概要とCompASデータに関する実証実験について述べる。
関連論文リスト
- The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - The Unfairness of $\varepsilon$-Fairness [0.0]
我々は、$varepsilon$-fairnessという概念が採用されれば、現実世界の文脈で最大に不公平な結果をもたらす可能性があることを示した。
本研究は,大学入学と信用リスク評価の2つの実例を用いて実施した。
論文 参考訳(メタデータ) (2024-05-15T14:13:35Z) - Causal Fair Machine Learning via Rank-Preserving Interventional Distributions [0.5062312533373299]
我々は、個人が架空の、規範的に望まれる(FiND)世界で等しければ、規範的に等しくなると定義する。
本研究では,それが保持する特定のFiND世界を定義するために,ランク保存的介入分布を提案する。
我々のワープアプローチは、最も差別された個人を効果的に識別し、不公平を緩和することを示します。
論文 参考訳(メタデータ) (2023-07-24T13:46:50Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - The Unfairness of Fair Machine Learning: Levelling down and strict
egalitarianism by default [10.281644134255576]
本稿では,FairMLにおけるレベルダウンの原因と頻度について検討する。
本稿では,最小許容限のハーネス閾値の実施による設計によるフェアMLの実体的平等に向けた第一歩を提案する。
論文 参考訳(メタデータ) (2023-02-05T15:22:43Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。