論文の概要: Causal Equal Protection as Algorithmic Fairness
- arxiv url: http://arxiv.org/abs/2402.12062v2
- Date: Tue, 20 Feb 2024 22:53:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 11:54:07.746923
- Title: Causal Equal Protection as Algorithmic Fairness
- Title(参考訳): アルゴリズムフェアネスとしての因果等保護
- Authors: Marcello Di Bello, Nicol\`o Cangiotti, Michele Loi
- Abstract要約: 我々は、因果関係のレンズを通して誤分類のリスクの公平な配分をモデル化する、因果等保護という新しい原則を論じる。
平等な保護は、分類パリティに対する反例の多くを回避しているが、多くの一般的なシナリオにおいて道徳的直観をモデル化することができないことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the last ten years the literature in computer science and philosophy has
formulated different criteria of algorithmic fairness. One of the most
discussed, classification parity, requires that the erroneous classifications
of a predictive algorithm occur with equal frequency for groups picked out by
protected characteristics. Despite its intuitive appeal, classification parity
has come under attack. Multiple scenarios can be imagined in which -
intuitively - a predictive algorithm does not treat any individual unfairly,
and yet classification parity is violated. To make progress, we turn to a
related principle, equal protection, originally developed in the context of
criminal justice. Key to equal protection is equalizing the risks of erroneous
classifications (in a sense to be specified) as opposed to equalizing the rates
of erroneous classifications. We show that equal protection avoids many of the
counterexamples to classification parity, but also fails to model our moral
intuitions in a number of common scenarios, for example, when the predictor is
causally downstream relative to the protected characteristic. To address these
difficulties, we defend a novel principle, causal equal protection, that models
the fair allocation of the risks of erroneous classification through the lenses
of causality.
- Abstract(参考訳): 過去10年間、コンピュータ科学と哲学の文献はアルゴリズムの公正性の異なる基準を定式化してきた。
最も議論されている分類の1つは、予測アルゴリズムの誤分類が、保護された特性によって抽出された群に対して等しい頻度で起こることを要求する。
直感的なアピールにもかかわらず、分類パリティは攻撃を受けている。
複数のシナリオを想像できる - 直観的に - 予測アルゴリズムは個人を不公平に扱うのではなく、分類パリティに違反する。
進歩するために、我々は刑事司法の文脈で発展した、関連する原則である平等保護に目を向ける。
平等な保護の鍵は、誤分類の率を等化するのではなく、誤分類のリスクを(特定される意味で)等化することである。
平等な保護は, 同一性に対する反例の多くを回避するだけでなく, 予測者が保護特性に対して因果的に下流にある場合など, 様々な共通シナリオにおいて, 道徳的直観をモデル化することができないことを示す。
これらの課題に対処するため、因果等保護という新たな原則を保護し、因果性レンズによる誤分類のリスクの公平な配分をモデル化する。
関連論文リスト
- Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - Towards Fair Classification against Poisoning Attacks [52.57443558122475]
攻撃者が少数のサンプルを訓練データに挿入できる毒殺シナリオについて検討する。
本稿では,従来の防犯手法に適合する汎用的かつ理論的に保証された枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-18T00:49:58Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fair Classification with Adversarial Perturbations [35.030329189029246]
本研究は,学習サンプルの任意の$eta$-fractionを選択でき,保護属性を任意に摂動することができるような,万能な逆境の存在下での公平な分類について検討する。
我々の主な貢献は、精度と公正性に関する証明可能な保証を伴うこの逆条件で公平な分類法を学ぶための最適化フレームワークである。
我々は、自然な仮説クラスに対する我々のフレームワークの保証のほぼ正当性を証明している: どのアルゴリズムもはるかに精度が良く、より良い公正性を持つアルゴリズムは、より低い精度でなければならない。
論文 参考訳(メタデータ) (2021-06-10T17:56:59Z) - Affirmative Algorithms: The Legal Grounds for Fairness as Awareness [0.0]
このようなアプローチがいかに「算術的肯定的行動」とみなされるかについて議論する。
我々は、政府契約の事件はアルゴリズムの公正性に代替的な根拠を与えると論じている。
我々は、偏り緩和が特定の原因と偏りのメカニズムに合わせたものであることを保証するために、アルゴリズム的公平性と因果推論の交点におけるさらなる研究を求める。
論文 参考訳(メタデータ) (2020-12-18T22:53:20Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Pairwise Supervision Can Provably Elicit a Decision Boundary [84.58020117487898]
類似性学習は、パターンのペア間の関係を予測することによって有用な表現を引き出す問題である。
類似性学習は、決定境界を直接引き出すことによって二項分類を解くことができることを示す。
論文 参考訳(メタデータ) (2020-06-11T05:35:16Z) - Towards Robust Fine-grained Recognition by Maximal Separation of
Discriminative Features [72.72840552588134]
本研究は, 粒度認識ネットワークにおけるクラス間の潜伏表現の近接性を, 敵攻撃の成功の鍵となる要因として同定する。
注意に基づく正規化機構を導入し、異なるクラスの識別潜在特徴を最大限に分離する。
論文 参考訳(メタデータ) (2020-06-10T18:34:45Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z) - Fairness Measures for Regression via Probabilistic Classification [0.0]
アルゴリズムフェアネス(英: Algorithmic Fairness)とは、機械学習アルゴリズムが最適化できる定量尺度として、公平性や合理的な扱いなどの概念を表現することである。
これは、分類公正度尺度が結果の比率を比較することで容易に計算され、同じ資格を持つ男性の割合が適格女性として選択されるような行動につながるためである。
しかし、そのような尺度は、価格や支払いの割当といった問題に対する継続的な回帰設定を一般化することは、計算的に困難である。
回帰設定では, 保護属性の異なる条件確率の比率として, 独立性, 分離性, 充足性基準の抽出可能な近似を導入する。
論文 参考訳(メタデータ) (2020-01-16T21:53:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。