論文の概要: Unravelling the (In)compatibility of Statistical-Parity and Equalized-Odds
- arxiv url: http://arxiv.org/abs/2601.19035v1
- Date: Mon, 26 Jan 2026 23:38:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.096409
- Title: Unravelling the (In)compatibility of Statistical-Parity and Equalized-Odds
- Title(参考訳): 統計的パーリティーと等化オッドの(In)適合性について
- Authors: Mortaza S. Bargh, Sunil Choenni, Floris ter Braak,
- Abstract要約: 本研究では,2種類の統計的公正度尺度,すなわち統計パリティと等化オッドの関係について検討する。
この分析は、ベースレートの不均衡が統計的パーリティと等化Odds測度の不整合をいかに、いつどのように引き起こすかを直感的に示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key challenge in employing data, algorithms and data-driven systems is to adhere to the principle of fairness and justice. Statistical fairness measures belong to an important category of technical/formal mechanisms for detecting fairness issues in data and algorithms. In this contribution we study the relations between two types of statistical fairness measures namely Statistical-Parity and Equalized-Odds. The Statistical-Parity measure does not rely on having ground truth, i.e., (objectively) labeled target attributes. This makes Statistical-Parity a suitable measure in practice for assessing fairness in data and data classification algorithms. Therefore, Statistical-Parity is adopted in many legal and professional frameworks for assessing algorithmic fairness. The Equalized-Odds measure, on the contrary, relies on having (reliable) ground-truth, which is not always feasible in practice. Nevertheless, there are several situations where the Equalized-Odds definition should be satisfied to enforce false prediction parity among sensitive social groups. We present a novel analyze of the relation between Statistical-Parity and Equalized-Odds, depending on the base-rates of sensitive groups. The analysis intuitively shows how and when base-rate imbalance causes incompatibility between Statistical-Parity and Equalized-Odds measures. As such, our approach provides insight in (how to make design) trade-offs between these measures in practice. Further, based on our results, we plea for examining base-rate (im)balance and investigating the possibility of such an incompatibility before enforcing or relying on the Statistical-Parity criterion. The insights provided, we foresee, may trigger initiatives to improve or adjust the current practice and/or the existing legal frameworks.
- Abstract(参考訳): データ、アルゴリズム、データ駆動システムを採用する上で重要な課題は、公正性と正義の原則に従うことである。
統計的公正度測定は、データとアルゴリズムの公正度問題を検出するための技術的・形式的なメカニズムの重要なカテゴリに属する。
本稿では,統計的公正度尺度,すなわち統計パリティと等化オッドの関係について検討する。
統計パリティ測度は、(客観的に)ラベル付けされた対象属性という、基礎的な真理を持つことには依存しない。
これにより、統計パリティは、データとデータ分類アルゴリズムの公平性を評価するのに適した尺度となる。
したがって、統計パリティはアルゴリズムの公正性を評価するための多くの法的および専門的な枠組みで採用されている。
それとは逆に、等化オッド測度は(信頼できる)基底真実を持つことに依存しており、実際には必ずしも実現可能であるとは限らない。
それにもかかわらず、平等化されたオッズの定義を満足させ、センシティブな社会集団間で偽の予測を同等にするいくつかの状況がある。
本稿では, 統計的パーリティと等化オッドの関係を, センシティブなグループの基数によって解析する。
この分析は、ベースレートの不均衡が統計的パーリティと等化Odds測度の不整合をいかに、いつどのように引き起こすかを直感的に示す。
そのため、当社のアプローチは、実際にこれらの手段間のトレードオフについて(設計の仕方)洞察を与えてくれます。
さらに,本研究の結果に基づき,統計的パーティ基準を施行または実施する前に,基準レート(im)バランスを検証し,このような不適合性の可能性を検討することを嘆願する。
提供された洞察は、現在のプラクティスと/または既存の法的枠組みを改善し、調整するためのイニシアチブをトリガーするかもしれません。
関連論文リスト
- Detecting Statistically Significant Fairness Violations in Recidivism Forecasting Algorithms [0.0]
本稿では, 統計的に有意なフェアネス指標違反を識別できる統計検査について紹介する。
我々は,国立司法研究所のデータに基づいて訓練されたリシビズム予測アルゴリズムをテストすることで,このアプローチを実証する。
論文 参考訳(メタデータ) (2025-09-18T17:15:23Z) - Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - Intrinsic Fairness-Accuracy Tradeoffs under Equalized Odds [8.471466670802817]
等化確率の統計的概念の下で、公正性と精度のトレードオフについて検討する。
フェアネス予算の関数として, 精度の新たな上限を提示する。
以上の結果から,低バイアス群に対する高い精度の達成は,グループ間の統計的格差に基づいて根本的に制限される可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-12T23:15:21Z) - Addressing Both Statistical and Causal Gender Fairness in NLP Models [22.75594773147521]
統計的公正性は、保護されたすべてのグループに対して同等の結果を規定するが、因果公正性は、モデルが保護された特性に関係なく、個人に対して同じ予測を行うことを規定する。
統計的および因果的脱バイアス法の組み合わせにより,両指標間の偏差を低減できることを実証した。
論文 参考訳(メタデータ) (2024-03-30T20:05:41Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。