論文の概要: What Is Fairness? On the Role of Protected Attributes and Fictitious
Worlds
- arxiv url: http://arxiv.org/abs/2205.09622v4
- Date: Wed, 31 Jan 2024 09:51:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 18:27:43.966813
- Title: What Is Fairness? On the Role of Protected Attributes and Fictitious
Worlds
- Title(参考訳): 公平とは何か?
保護された属性と架空の世界の役割について
- Authors: Ludwig Bothmann, Kristina Peters, Bernd Bischl
- Abstract要約: フェアネスを意識したML(fairML)における文献の増大は、自動意思決定(ADM)における機械学習(ML)に関連する不公平さを軽減することを意図している
公平性という一貫した概念を定式化し、哲学的考察をMLモデルのトレーニングと評価のための形式的枠組みに変換することにより、このギャップを埋めようとしている。
- 参考スコア(独自算出の注目度): 9.242354650996418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A growing body of literature in fairness-aware ML (fairML) aspires to
mitigate machine learning (ML)-related unfairness in automated decision-making
(ADM) by defining metrics that measure fairness of an ML model and by proposing
methods that ensure that trained ML models achieve low values in those metrics.
However, the underlying concept of fairness, i.e., the question of what
fairness is, is rarely discussed, leaving a considerable gap between centuries
of philosophical discussion and recent adoption of the concept in the ML
community. In this work, we try to bridge this gap by formalizing a consistent
concept of fairness and by translating the philosophical considerations into a
formal framework for the training and evaluation of ML models in ADM systems.
We derive that fairness problems can already arise without the presence of
protected attributes (PAs), pointing out that fairness and predictive
performance are not irreconcilable counterparts, but rather that the latter is
necessary to achieve the former. Moreover, we argue why and how causal
considerations are necessary when assessing fairness in the presence of PAs by
proposing a fictitious, normatively desired (FiND) world where the PAs have no
causal effects. In practice, this FiND world must be approximated by a warped
world, for which the causal effects of the PAs must be removed from the
real-world data. Eventually, we achieve greater linguistic clarity for the
discussion of fairML. We propose first algorithms for practical applications
and present illustrative experiments on COMPAS data.
- Abstract(参考訳): フェアネスを意識したML(fairML)における文献の増大は、機械学習(ML)に関連する不公平さを自動意思決定(ADM)で軽減することを目的としており、MLモデルの公平性を測定するメトリクスを定義し、トレーニングされたMLモデルがこれらのメトリクスで低い値を達成することを保証する方法を提案する。
しかし、公正とは何かという根本的な概念は、何世紀にもわたる哲学的議論とMLコミュニティにおけるこの概念の最近の採用の間にかなりのギャップを残しているため、ほとんど議論されない。
本研究では,公正性という一貫した概念を定式化し,哲学的考察をADMシステムにおけるMLモデルのトレーニングと評価のための形式的枠組みに変換することにより,このギャップを埋めようとしている。
フェアネス問題は保護属性(PA)の存在なしに既に発生しており、フェアネスと予測性能は相容れないものではなく、前者を達成するためには後者が必要であることを指摘した。
さらに, PAが因果的影響を持たない架空の規範的(FiND)世界を提案することによって, PAの存在の公平性を評価する上で, 因果的配慮がなぜ必要かについて議論する。
実際には、このFiND世界は、実世界のデータからPAの因果効果を取り除かなければならない、歪んだ世界によって近似されなければならない。
最終的に、fairMLの議論において、より言語的明瞭さを実現する。
実用化のための第1のアルゴリズムを提案し,CompASデータに関する実証実験を行う。
関連論文リスト
- A Human-in-the-Loop Fairness-Aware Model Selection Framework for Complex Fairness Objective Landscapes [37.5215569371757]
ManyFairHPOはフェアネスを意識したモデル選択フレームワークで、実践者が複雑でニュアンスのあるフェアネスの客観的な風景をナビゲートすることを可能にする。
我々は,複数のフェアネス目標のバランス,自己充足的予言などのリスク軽減,公平性を考慮したモデリング決定における利害関係者の導出のための解釈可能な洞察の提供などにおけるMaryFairHPOの有効性を実証する。
論文 参考訳(メタデータ) (2024-10-17T07:32:24Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Causal Fair Machine Learning via Rank-Preserving Interventional Distributions [0.5062312533373299]
我々は、個人が架空の、規範的に望まれる(FiND)世界で等しければ、規範的に等しくなると定義する。
本研究では,それが保持する特定のFiND世界を定義するために,ランク保存的介入分布を提案する。
我々のワープアプローチは、最も差別された個人を効果的に識別し、不公平を緩和することを示します。
論文 参考訳(メタデータ) (2023-07-24T13:46:50Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - The Unfairness of Fair Machine Learning: Levelling down and strict
egalitarianism by default [10.281644134255576]
本稿では,FairMLにおけるレベルダウンの原因と頻度について検討する。
本稿では,最小許容限のハーネス閾値の実施による設計によるフェアMLの実体的平等に向けた第一歩を提案する。
論文 参考訳(メタデータ) (2023-02-05T15:22:43Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。