論文の概要: Interpretable Distribution-Invariant Fairness Measures for Continuous
Scores
- arxiv url: http://arxiv.org/abs/2308.11375v1
- Date: Tue, 22 Aug 2023 12:01:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 18:08:45.336035
- Title: Interpretable Distribution-Invariant Fairness Measures for Continuous
Scores
- Title(参考訳): 連続スコアの解釈可能な分布不変公平度対策
- Authors: Ann-Kristin Becker, Oana Dumitrasc, Klaus Broelemann
- Abstract要約: 本稿では、ワッサーシュタイン距離に基づく合理的な解釈を伴う連続的なスコアに対する公平度尺度の分布不変バージョンを提案する。
グループ格差の強さの定量化と解釈には, 計算が容易であり, 適している。
提案した分布不変フェアネス尺度は,より明示的で,ROCに基づくフェアネス尺度が欠落する有意なバイアスを定量化できるため,ROCに基づくフェアネス尺度よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 4.711430413139392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Measures of algorithmic fairness are usually discussed in the context of
binary decisions. We extend the approach to continuous scores. So far,
ROC-based measures have mainly been suggested for this purpose. Other existing
methods depend heavily on the distribution of scores, are unsuitable for
ranking tasks, or their effect sizes are not interpretable. Here, we propose a
distributionally invariant version of fairness measures for continuous scores
with a reasonable interpretation based on the Wasserstein distance. Our
measures are easily computable and well suited for quantifying and interpreting
the strength of group disparities as well as for comparing biases across
different models, datasets, or time points. We derive a link between the
different families of existing fairness measures for scores and show that the
proposed distributionally invariant fairness measures outperform ROC-based
fairness measures because they are more explicit and can quantify significant
biases that ROC-based fairness measures miss. Finally, we demonstrate their
effectiveness through experiments on the most commonly used fairness benchmark
datasets.
- Abstract(参考訳): アルゴリズム的公平性の尺度は通常二分決定の文脈で議論される。
私たちはこのアプローチを連続スコアに拡張します。
これまでのところ、この目的のためにROCに基づく措置が提案されている。
他の既存の方法はスコアの分布に大きく依存しており、ランク付けタスクには適していない。
本稿では,連続スコアに対するフェアネス測度の分布不変バージョンを提案し,ワッサースタイン距離に基づく合理的解釈を提案する。
我々の測度は計算が容易で、グループ格差の強さを定量化し解釈するのにも適しており、異なるモデル、データセット、タイムポイントのバイアスを比較するのにも適しています。
我々は,既存のスコアに対するフェアネス尺度の異なるファミリー間の関係を導出し,提案した分布不変フェアネス尺度がROCに基づくフェアネス尺度より優れており,ROCに基づくフェアネス尺度が見逃す有意なバイアスを定量化できることを示す。
最後に、最もよく使われるフェアネスベンチマークデータセットの実験を通して、それらの効果を実証する。
関連論文リスト
- Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Correcting Underrepresentation and Intersectional Bias for Fair
Classification [55.2480439325792]
偏見バイアスによって劣化したデータから学習する問題について考察し, 正の例を, 一定の数のセンシティブなグループに対して, 異なる未知のレートでフィルタする。
交叉群のメンバーシップが各交叉率を計算不能にするような設定であっても,少数の偏りのないデータを用いてグループワイド・ドロップアウトパラメータを効率的に推定できることが示される。
我々は,この学習と再重み付け過程をカプセル化するアルゴリズムを提案し,高い確率で真の分布に対する仮説のリスクが任意に近いことをPACスタイルの強い保証を提供する。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Counterpart Fairness -- Addressing Systematic between-group Differences
in Fairness Evaluation [18.372355677006965]
フェアネス評価が「オレンジ」と「アプルズ」とを比較することを防止する。
本稿では,機械学習モデルの公正度を評価するために,対向型統計公正度指数(Counterpart-Fairness,CFair)を提案する。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Arbitrariness and Social Prediction: The Confounding Role of Variance in
Fair Classification [31.392067805022414]
異なる訓練されたモデル間での予測のばらつきは、公正なバイナリ分類における重要な、未探索のエラーの原因である。
実際には、いくつかのデータ例のばらつきは非常に大きいので、決定を効果的に任意にすることができる。
予測が任意である場合に分類を省略するアンサンブルアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-27T06:52:04Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Disentanglement of Correlated Factors via Hausdorff Factorized Support [53.23740352226391]
本稿では,因子分布ではなく,因子化支援を助長する緩やかな解離基準,HFS(Hausdorff Factorized Support)基準を提案する。
本研究では,HFSを用いることにより,様々な相関設定やベンチマークにおいて,接地構造因子の絡み合いと回復が一貫して促進されることを示す。
論文 参考訳(メタデータ) (2022-10-13T20:46:42Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Algorithmic Fairness Verification with Graphical Models [24.8005399877574]
本稿では,ベイズネットワークのような特徴間の相関を符号化する,FVGMと呼ばれる効率の良いフェアネス検証手法を提案する。
FVGMは、より多様なフェアネス向上アルゴリズムのファミリーに対して、正確でスケーラブルな評価をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-20T12:05:14Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Fast Fair Regression via Efficient Approximations of Mutual Information [0.0]
本稿では, 回帰モデルに対する独立性, 分離性, 充足性グループフェアネス基準の高速な近似について紹介する。
正規化リスク最小化フレームワーク内で公正性を強制するために、正規化のような近似を使用する。
実世界のデータセットでの実験では、計算効率が優れているにもかかわらず、我々のアルゴリズムは依然として最先端の精度/フェアネスのトレードオフを示す。
論文 参考訳(メタデータ) (2020-02-14T08:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。