論文の概要: Causal Equal Protection as Algorithmic Fairness
- arxiv url: http://arxiv.org/abs/2402.12062v1
- Date: Mon, 19 Feb 2024 11:30:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 16:52:47.021942
- Title: Causal Equal Protection as Algorithmic Fairness
- Title(参考訳): アルゴリズムフェアネスとしての因果等保護
- Authors: Marcello Di Bello, Nicol\`o Cangiotti, Michele Loi
- Abstract要約: 我々は、因果関係のレンズを通して誤分類のリスクの公平な配分をモデル化する、因果等保護という新しい原則を論じる。
平等な保護は、分類パリティに対する反例の多くを回避しているが、多くの一般的なシナリオにおいて道徳的直観をモデル化することができないことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the last ten years the literature in computer science and philosophy has
formulated different criteria of algorithmic fairness. One of the most
discussed, classification parity, requires that the erroneous classifications
of a predictive algorithm occur with equal frequency for groups picked out by
protected characteristics. Despite its intuitive appeal, classification parity
has come under attack. Multiple scenarios can be imagined in which -
intuitively - a predictive algorithm does not treat any individual unfairly,
and yet classification parity is violated. To make progress, we turn to a
related principle, equal protection, originally developed in the context of
criminal justice. Key to equal protection is equalizing the risks of erroneous
classifications (in a sense to be specified) as opposed to equalizing the rates
of erroneous classifications. We show that equal protection avoids many of the
counterexamples to classification parity, but also fails to model our moral
intuitions in a number of common scenarios, for example, when the predictor is
causally downstream relative to the protected characteristic. To address these
difficulties, we defend a novel principle, causal equal protection, that models
the fair allocation of the risks of erroneous classification through the lenses
of causality.
- Abstract(参考訳): 過去10年間、コンピュータ科学と哲学の文献はアルゴリズムの公正性の異なる基準を定式化してきた。
最も議論されている分類の1つは、予測アルゴリズムの誤分類が、保護された特性によって抽出された群に対して等しい頻度で起こることを要求する。
直感的なアピールにもかかわらず、分類パリティは攻撃を受けている。
複数のシナリオを想像できる - 直観的に - 予測アルゴリズムは個人を不公平に扱うのではなく、分類パリティに違反する。
進歩するために、我々は刑事司法の文脈で発展した、関連する原則である平等保護に目を向ける。
平等な保護の鍵は、誤分類の率を等化するのではなく、誤分類のリスクを(特定される意味で)等化することである。
平等な保護は, 同一性に対する反例の多くを回避するだけでなく, 予測者が保護特性に対して因果的に下流にある場合など, 様々な共通シナリオにおいて, 道徳的直観をモデル化することができないことを示す。
これらの課題に対処するため、因果等保護という新たな原則を保護し、因果性レンズによる誤分類のリスクの公平な配分をモデル化する。
関連論文リスト
- Uncertainty-Aware Fairness-Adaptive Classification Trees [0.0]
本稿では,木構築プロセスに公平性調整を組み込んだ新しい分割基準を用いた新しい分類木アルゴリズムを提案する。
本手法は,従来の分類木に比べて識別予測を効果的に削減し,全体的な精度を損なわないことを示す。
論文 参考訳(メタデータ) (2024-10-08T08:42:12Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - When Fair Classification Meets Noisy Protected Attributes [8.362098382773265]
本研究は, 属性耐性, 耐雑音性, 属性ブラインドアルゴリズムを比較した, 公平な分類アルゴリズムの先進的な研究である。
本研究は,属性ブレンドとノイズ耐性公正分類器が,属性耐性アルゴリズムと同等の性能を達成できることを明らかにする。
論文 参考訳(メタデータ) (2023-07-06T21:38:18Z) - Counterfactual Situation Testing: Uncovering Discrimination under
Fairness given the Difference [26.695316585522527]
本稿では,分類器の識別を行う因果データマイニングフレームワークであるCSTについて述べる。
CSTは「モデルの結果が、個人、または不平が、異なる保護された状態であったとしたら、どんな結果だったのか?
論文 参考訳(メタデータ) (2023-02-23T11:41:21Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - Towards Fair Classification against Poisoning Attacks [52.57443558122475]
攻撃者が少数のサンプルを訓練データに挿入できる毒殺シナリオについて検討する。
本稿では,従来の防犯手法に適合する汎用的かつ理論的に保証された枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-18T00:49:58Z) - Fairness and robustness in anti-causal prediction [73.693135253335]
分散シフトと公平性に対するロバストさは、機械学習モデルに必要な2つの重要なデシラタとして独立に現れている。
これら2つのデシダラタは関連しているように見えるが、実際にはその関連性はしばしば不明である。
この観点から見れば、共通フェアネス基準(分離)とロバストネスの共通概念との明確な関係を描いています。
論文 参考訳(メタデータ) (2022-09-20T02:41:17Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fairness Deconstructed: A Sociotechnical View of 'Fair' Algorithms in
Criminal Justice [0.0]
機械学習の研究者たちはフェアネスの手法を開発しており、その多くは保護された属性をまたいだ経験的メトリクスの等化に依存している。
公正なMLの多くは、基礎となる犯罪データに対する公平性の問題を考慮していない、と私は主張する。
電力不均衡を緩和するAIを構築する代わりに、構造的辺縁化の根本原因を理解するためにデータサイエンスを使用できるかどうかを尋ねる。
論文 参考訳(メタデータ) (2021-06-25T06:52:49Z) - Affirmative Algorithms: The Legal Grounds for Fairness as Awareness [0.0]
このようなアプローチがいかに「算術的肯定的行動」とみなされるかについて議論する。
我々は、政府契約の事件はアルゴリズムの公正性に代替的な根拠を与えると論じている。
我々は、偏り緩和が特定の原因と偏りのメカニズムに合わせたものであることを保証するために、アルゴリズム的公平性と因果推論の交点におけるさらなる研究を求める。
論文 参考訳(メタデータ) (2020-12-18T22:53:20Z) - Towards Robust Fine-grained Recognition by Maximal Separation of
Discriminative Features [72.72840552588134]
本研究は, 粒度認識ネットワークにおけるクラス間の潜伏表現の近接性を, 敵攻撃の成功の鍵となる要因として同定する。
注意に基づく正規化機構を導入し、異なるクラスの識別潜在特徴を最大限に分離する。
論文 参考訳(メタデータ) (2020-06-10T18:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。