論文の概要: Prediction Sensitivity: Continual Audit of Counterfactual Fairness in
Deployed Classifiers
- arxiv url: http://arxiv.org/abs/2202.04504v1
- Date: Wed, 9 Feb 2022 15:06:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 17:54:25.433883
- Title: Prediction Sensitivity: Continual Audit of Counterfactual Fairness in
Deployed Classifiers
- Title(参考訳): 予測感度: 展開された分類器における反事実公平性の連続的監査
- Authors: Krystal Maughan, Ivoline C. Ngong, Joseph P. Near
- Abstract要約: 従来のグループフェアネスのメトリクスは個人に対する差別を見逃しかねず、デプロイ後に適用するのが困難である。
本稿では,デプロイされた分類器における対実的公正性の連続的な監査手法である予測感度について述べる。
実証実験の結果,予測感度は反実的公正さの違反を検出するのに有効であることが示された。
- 参考スコア(独自算出の注目度): 2.0625936401496237
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI-based systems increasingly impact many areas of our lives, auditing
these systems for fairness is an increasingly high-stakes problem. Traditional
group fairness metrics can miss discrimination against individuals and are
difficult to apply after deployment. Counterfactual fairness describes an
individualized notion of fairness but is even more challenging to evaluate
after deployment. We present prediction sensitivity, an approach for continual
audit of counterfactual fairness in deployed classifiers. Prediction
sensitivity helps answer the question: would this prediction have been
different, if this individual had belonged to a different demographic group --
for every prediction made by the deployed model. Prediction sensitivity can
leverage correlations between protected status and other features and does not
require protected status information at prediction time. Our empirical results
demonstrate that prediction sensitivity is effective for detecting violations
of counterfactual fairness.
- Abstract(参考訳): aiベースのシステムは私たちの生活の多くの領域にますます影響を与えています。
従来のグループフェアネスメトリクスは個人に対する差別を見逃す可能性があり、デプロイ後に適用するのが困難である。
counterfactual fairnessは、フェアネスの個別化された概念を記述しているが、デプロイ後の評価はさらに困難である。
本稿では,デプロイされた分類器における対実的公正性の連続的な監査手法である予測感度について述べる。
予測感度は、デプロイされたモデルによって行われたすべての予測に対して、この個人が別の人口層グループに属していた場合、この予測が異なるのか、という疑問に答えるのに役立つ。
予測感度は保護された状態と他の特徴の相関を利用しており、予測時に保護された状態情報を必要としない。
実証実験の結果,予測感度は反実的公正さの違反を検出するのに有効であることが示された。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Counterfactual Fairness for Predictions using Generative Adversarial
Networks [28.65556399421874]
我々は, 対実フェアネスの下で予測を行うための, GCFN (Generative Counterfactual Fairness Network) と呼ばれる新しいディープニューラルネットワークを開発した。
本手法は, 対実的公正性の概念を保証するために数学的に保証されている。
論文 参考訳(メタデータ) (2023-10-26T17:58:39Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Towards Assumption-free Bias Mitigation [47.5131072745805]
本稿では,バイアス緩和のための特徴相互作用をモデル化することにより,関連する属性を自動的に検出する仮定フリーフレームワークを提案する。
4つの実世界のデータセットに対する実験結果から,提案手法が不公平な予測行動を著しく軽減できることが示された。
論文 参考訳(メタデータ) (2023-07-09T05:55:25Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Attainability and Optimality: The Equalized Odds Fairness Revisited [8.44348159032116]
等化オッドの公正性の概念の達成可能性を考える。
分類において、後処理による公平性を強制することと比較して、利用可能なすべての機能を利用する利点が常にあることを証明します。
性能予測は理論的保証で等化オッドを達成できるが、その限界と潜在的な負の社会的影響についても論じる。
論文 参考訳(メタデータ) (2022-02-24T01:30:31Z) - Fair When Trained, Unfair When Deployed: Observable Fairness Measures
are Unstable in Performative Prediction Settings [0.0]
性能予測設定では、予測器は正確に分布シフトを誘導することを意図している。
刑事司法、医療、消費者金融において、予測器を構築する目的は、有害な結果の率を減らすことである。
観測可能な結果ではなく、事実に依存した公平性の定義を用いることで、これらの問題の何つが避けられるかを示す。
論文 参考訳(メタデータ) (2022-02-10T14:09:02Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Heterogeneous-Agent Trajectory Forecasting Incorporating Class
Uncertainty [54.88405167739227]
本稿では,エージェントのクラス確率を明示的に組み込んだヘテロジニアスエージェント軌道予測手法であるHAICUを提案する。
さらに,新たな挑戦的な実世界の自動運転データセットであるpupも紹介する。
軌道予測にクラス確率を組み込むことで,不確実性に直面した性能が著しく向上することを示す。
論文 参考訳(メタデータ) (2021-04-26T10:28:34Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。