論文の概要: Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems
- arxiv url: http://arxiv.org/abs/2307.00472v1
- Date: Sun, 2 Jul 2023 04:44:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 15:56:31.743808
- Title: Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems
- Title(参考訳): 等融合公正性:自動決定システムにおける群ベース格差の測定
- Authors: Furkan Gursoy and Ioannis A. Kakadiaris
- Abstract要約: 本稿では,公正度の自動判定システムをチェックするための等混乱公正度試験と,不公平度を定量化するための新しい混乱パリティ誤差を提案する。
全体として、ここで提供される方法とメトリクスは、より広範な説明責任評価の一環として、自動決定システムの公正性を評価することができる。
- 参考スコア(独自算出の注目度): 5.076419064097733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As artificial intelligence plays an increasingly substantial role in
decisions affecting humans and society, the accountability of automated
decision systems has been receiving increasing attention from researchers and
practitioners. Fairness, which is concerned with eliminating unjust treatment
and discrimination against individuals or sensitive groups, is a critical
aspect of accountability. Yet, for evaluating fairness, there is a plethora of
fairness metrics in the literature that employ different perspectives and
assumptions that are often incompatible. This work focuses on group fairness.
Most group fairness metrics desire a parity between selected statistics
computed from confusion matrices belonging to different sensitive groups.
Generalizing this intuition, this paper proposes a new equal confusion fairness
test to check an automated decision system for fairness and a new confusion
parity error to quantify the extent of any unfairness. To further analyze the
source of potential unfairness, an appropriate post hoc analysis methodology is
also presented. The usefulness of the test, metric, and post hoc analysis is
demonstrated via a case study on the controversial case of COMPAS, an automated
decision system employed in the US to assist judges with assessing recidivism
risks. Overall, the methods and metrics provided here may assess automated
decision systems' fairness as part of a more extensive accountability
assessment, such as those based on the system accountability benchmark.
- Abstract(参考訳): 人工知能が人間や社会に影響を及ぼす決定において重要な役割を担っているため、自動意思決定システムの説明責任は研究者や実践者から注目を集めている。
公平は、個人や敏感なグループに対する不当な扱いや差別を排除することに関心があり、説明責任の重要な側面である。
しかし、公平さを評価するために、文献にはしばしば相容れない異なる視点と仮定を用いる多くの公正度指標が存在する。
この作品はグループフェアネスに焦点を当てている。
ほとんどの集団公平度指標は、異なる敏感群に属する混乱行列から計算された選択された統計値のパリティを求める。
本稿では,この直感を一般化し,公平度の自動決定システムと不公平度を定量化する新しい混乱パリティ誤差をチェックするための,新しい等混同公平性テストを提案する。
さらに、潜在的不公平の原因をさらに分析するために、適切なポストホック分析手法も提示する。
テスト、メートル法、およびポストホック分析の有用性は、再犯リスクを評価する裁判官を支援するために米国で使用されている自動決定システムであるCompASのケーススタディによって実証される。
全体として、ここで提供される方法とメトリクスは、システム説明責任ベンチマークに基づくものなど、より広範な説明責任評価の一部として、自動決定システムの公平性を評価することができる。
関連論文リスト
- Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Perspectives on Large Language Models for Relevance Judgment [56.935731584323996]
大型言語モデル(LLM)は、関連判断を支援することができると主張している。
自動判定が検索システムの評価に確実に利用できるかどうかは不明である。
論文 参考訳(メタデータ) (2023-04-13T13:08:38Z) - Survey on Fairness Notions and Related Tensions [4.257210316104905]
自動化された意思決定システムは、雇用やローンの貸与といった問題において、逐次的な決定を下すのにますます使われています。
しかし、客観的機械学習(ML)アルゴリズムはバイアスを起こしやすいため、不公平な判断を下す。
本稿では、一般的に使われている公正概念を調査し、プライバシと精度で両者間の緊張関係について論じる。
論文 参考訳(メタデータ) (2022-09-16T13:36:05Z) - Error Parity Fairness: Testing for Group Fairness in Regression Tasks [5.076419064097733]
この研究は、回帰フェアネスの概念としてエラーパリティを示し、グループフェアネスを評価するためのテスト手法を導入する。
続いて、いくつかの統計上のグループを比較し、格差を探索し、影響されたグループを特定するのに適した置換テストが実施される。
全体として、提案された回帰公正性テスト手法は、公正な機械学習文献のギャップを埋め、より大きなアカウンタビリティ評価とアルゴリズム監査の一部として機能する可能性がある。
論文 参考訳(メタデータ) (2022-08-16T17:47:20Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Fairness Score and Process Standardization: Framework for Fairness
Certification in Artificial Intelligence Systems [0.4297070083645048]
本稿では,データ駆動型AIシステムの公平性を測定するための新しいフェアネススコアを提案する。
また、公正性の概念を運用し、そのようなシステムの商用展開を容易にするためのフレームワークも提供する。
論文 参考訳(メタデータ) (2022-01-10T15:45:12Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - On the Identification of Fair Auditors to Evaluate Recommender Systems
based on a Novel Non-Comparative Fairness Notion [1.116812194101501]
意思決定支援システムは、多くの実践的な展開の文脈で差別的であることが判明した。
非比較正義の原理に基づく新しい公正概念を提案する。
提案したフェアネスの概念は、比較フェアネスの概念の観点からも保証を提供することを示す。
論文 参考訳(メタデータ) (2020-09-09T16:04:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。