論文の概要: Causal Fairness Analysis
- arxiv url: http://arxiv.org/abs/2207.11385v1
- Date: Sat, 23 Jul 2022 01:06:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:05:23.051552
- Title: Causal Fairness Analysis
- Title(参考訳): 因果フェアネス分析
- Authors: Drago Plecko, Elias Bareinboim
- Abstract要約: 意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
- 参考スコア(独自算出の注目度): 68.12191782657437
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision-making systems based on AI and machine learning have been used
throughout a wide range of real-world scenarios, including healthcare, law
enforcement, education, and finance. It is no longer far-fetched to envision a
future where autonomous systems will be driving entire business decisions and,
more broadly, supporting large-scale decision-making infrastructure to solve
society's most challenging problems. Issues of unfairness and discrimination
are pervasive when decisions are being made by humans, and remain (or are
potentially amplified) when decisions are made using machines with little
transparency, accountability, and fairness. In this paper, we introduce a
framework for \textit{causal fairness analysis} with the intent of filling in
this gap, i.e., understanding, modeling, and possibly solving issues of
fairness in decision-making settings. The main insight of our approach will be
to link the quantification of the disparities present on the observed data with
the underlying, and often unobserved, collection of causal mechanisms that
generate the disparity in the first place, challenge we call the Fundamental
Problem of Causal Fairness Analysis (FPCFA). In order to solve the FPCFA, we
study the problem of decomposing variations and empirical measures of fairness
that attribute such variations to structural mechanisms and different units of
the population. Our effort culminates in the Fairness Map, which is the first
systematic attempt to organize and explain the relationship between different
criteria found in the literature. Finally, we study which causal assumptions
are minimally needed for performing causal fairness analysis and propose a
Fairness Cookbook, which allows data scientists to assess the existence of
disparate impact and disparate treatment.
- Abstract(参考訳): aiと機械学習に基づく意思決定システムは、医療、法執行、教育、金融など、幅広い現実世界のシナリオで使用されてきた。
自律システムがビジネス全体の決定を推進し、より広い範囲で、社会の最も困難な問題を解決するための大規模な意思決定基盤をサポートする、未来を想像することはもはや遠くない。
不公平さと差別の問題は、人間が決定を下すとき、透明性、説明責任、公平さの少ない機械を使って決定を行うとき(または増幅される可能性がある)に広まります。
本稿では,このギャップを埋めることを目的として,意思決定における公平性の問題を理解・モデル化し,解決することを目的として, \textit{causal fairness analysis} の枠組みを提案する。
このアプローチの主な洞察は、観測データに存在する不一致の定量化と、そもそも不一致を発生させる因果メカニズムの集合とを結びつけることであり、我々は因果的公平性分析(fpcfa)の根本的な問題と呼ぶ。
本研究では,FPCFAを解くために,その変動が構造機構や集団の単位が異なることに起因するフェアネスの変動と実証的尺度を分解する問題を考察する。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネス・マップ(Fairness Map)で頂点に達した。
最後に,因果的公平性分析を行う上で,どの因果的仮定が最小限に必要かを検討するとともに,データサイエンティストが異質な影響の存在と異質な治療を評価できる公平性クックブックを提案する。
関連論文リスト
- Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems [5.076419064097733]
本稿では,公正度の自動判定システムをチェックするための等混乱公正度試験と,不公平度を定量化するための新しい混乱パリティ誤差を提案する。
全体として、ここで提供される方法とメトリクスは、より広範な説明責任評価の一環として、自動決定システムの公正性を評価することができる。
論文 参考訳(メタデータ) (2023-07-02T04:44:19Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Survey on Fairness Notions and Related Tensions [4.257210316104905]
自動化された意思決定システムは、雇用やローンの貸与といった問題において、逐次的な決定を下すのにますます使われています。
しかし、客観的機械学習(ML)アルゴリズムはバイアスを起こしやすいため、不公平な判断を下す。
本稿では、一般的に使われている公正概念を調査し、プライバシと精度で両者間の緊張関係について論じる。
論文 参考訳(メタデータ) (2022-09-16T13:36:05Z) - The Equity Framework: Fairness Beyond Equalized Predictive Outcomes [0.0]
意思決定者が物理的・社会的環境を描写するモデルから逸脱するモデルを使用すると生じる公平性の問題について検討する。
モデルへの平等なアクセス、モデルからの平等な結果、モデルの平等な利用を考慮に入れたEquity Frameworkを定式化する。
論文 参考訳(メタデータ) (2022-04-18T20:49:51Z) - Addressing Fairness, Bias and Class Imbalance in Machine Learning: the
FBI-loss [11.291571222801027]
公正性・バイアス・不均衡に関する問題に対処する統合的損失補正(FBI-loss)を提案する。
提案手法の補正能力は実世界の3つのベンチマークで評価される。
論文 参考訳(メタデータ) (2021-05-13T15:01:14Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。