論文の概要: Interpretable Distribution-Invariant Fairness Measures for Continuous
Scores
- arxiv url: http://arxiv.org/abs/2308.11375v1
- Date: Tue, 22 Aug 2023 12:01:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 18:08:45.336035
- Title: Interpretable Distribution-Invariant Fairness Measures for Continuous
Scores
- Title(参考訳): 連続スコアの解釈可能な分布不変公平度対策
- Authors: Ann-Kristin Becker, Oana Dumitrasc, Klaus Broelemann
- Abstract要約: 本稿では、ワッサーシュタイン距離に基づく合理的な解釈を伴う連続的なスコアに対する公平度尺度の分布不変バージョンを提案する。
グループ格差の強さの定量化と解釈には, 計算が容易であり, 適している。
提案した分布不変フェアネス尺度は,より明示的で,ROCに基づくフェアネス尺度が欠落する有意なバイアスを定量化できるため,ROCに基づくフェアネス尺度よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 4.711430413139392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Measures of algorithmic fairness are usually discussed in the context of
binary decisions. We extend the approach to continuous scores. So far,
ROC-based measures have mainly been suggested for this purpose. Other existing
methods depend heavily on the distribution of scores, are unsuitable for
ranking tasks, or their effect sizes are not interpretable. Here, we propose a
distributionally invariant version of fairness measures for continuous scores
with a reasonable interpretation based on the Wasserstein distance. Our
measures are easily computable and well suited for quantifying and interpreting
the strength of group disparities as well as for comparing biases across
different models, datasets, or time points. We derive a link between the
different families of existing fairness measures for scores and show that the
proposed distributionally invariant fairness measures outperform ROC-based
fairness measures because they are more explicit and can quantify significant
biases that ROC-based fairness measures miss. Finally, we demonstrate their
effectiveness through experiments on the most commonly used fairness benchmark
datasets.
- Abstract(参考訳): アルゴリズム的公平性の尺度は通常二分決定の文脈で議論される。
私たちはこのアプローチを連続スコアに拡張します。
これまでのところ、この目的のためにROCに基づく措置が提案されている。
他の既存の方法はスコアの分布に大きく依存しており、ランク付けタスクには適していない。
本稿では,連続スコアに対するフェアネス測度の分布不変バージョンを提案し,ワッサースタイン距離に基づく合理的解釈を提案する。
我々の測度は計算が容易で、グループ格差の強さを定量化し解釈するのにも適しており、異なるモデル、データセット、タイムポイントのバイアスを比較するのにも適しています。
我々は,既存のスコアに対するフェアネス尺度の異なるファミリー間の関係を導出し,提案した分布不変フェアネス尺度がROCに基づくフェアネス尺度より優れており,ROCに基づくフェアネス尺度が見逃す有意なバイアスを定量化できることを示す。
最後に、最もよく使われるフェアネスベンチマークデータセットの実験を通して、それらの効果を実証する。
関連論文リスト
- Goodhart's Law Applies to NLP's Explanation Benchmarks [57.26445915212884]
ERASER(Comprehensiveness and sufficiency)メトリクスとEVAL-X(EVAL-X)メトリクスの2つのセットを批判的に検討する。
実験結果の予測や説明を変えることなく,モデル全体の包括性と充足率を劇的に向上させることができることを示す。
我々の結果は、現在のメトリクスが説明可能性の研究をガイドする能力に疑問を呈し、これらのメトリクスが正確に捉えるものを再評価する必要性を強調します。
論文 参考訳(メタデータ) (2023-08-28T03:03:03Z) - On (assessing) the fairness of risk score models [2.0646127669654826]
リスクモデルは、ユーザに対して潜在的な結果について不確実性を伝えるという事実など、さまざまな理由から関心を集めている。
リスクスコアフェアネスの鍵となるデシダータムとして,異なるグループに類似した価値を提供する。
本稿では,従来提案されていた基準値よりも試料径バイアスが少ない新しい校正誤差指標を提案する。
論文 参考訳(メタデータ) (2023-02-17T12:45:51Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Gradual (In)Compatibility of Fairness Criteria [0.0]
不合理性の結果は、重要な公正度尺度を合理的な仮定の下で同時に満たすことができないことを示している。
本稿では,これらの公平度対策をある程度同時に達成し,改善できるかどうかを考察する。
論文 参考訳(メタデータ) (2021-09-09T16:37:30Z) - Fair Mixup: Fairness via Interpolation [28.508444261249423]
公平性制約を課すための新しいデータ拡張戦略であるfair mixupを提案する。
対象群間の補間標本の経路のモデルに正則化することで公平性が達成できることを示す。
ベンチマークにおける精度と公正度の測定の両面において,より優れた一般化を実現することを実証的に示す。
論文 参考訳(メタデータ) (2021-03-11T06:57:26Z) - Evaluation: from precision, recall and F-measure to ROC, informedness,
markedness and correlation [3.7819322027528113]
Recall、Precision、F-Measure、Rand Accuracyといった尺度はバイアスがあり、バイアスを明確に理解しなければ使用できない。
予測と確率の確率を反映したいくつかの概念と測度について論じる。
論文 参考訳(メタデータ) (2020-10-11T02:15:11Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - On the Relation between Quality-Diversity Evaluation and
Distribution-Fitting Goal in Text Generation [86.11292297348622]
本研究では, 品質と多様性の線形結合が, 生成した分布と実分布との分岐距離を構成することを示す。
品質/多様性メトリックペアの代替としてCR/NRRを提案する。
論文 参考訳(メタデータ) (2020-07-03T04:06:59Z) - GenDICE: Generalized Offline Estimation of Stationary Values [108.17309783125398]
重要なアプリケーションでは,効果的な推定が依然として可能であることを示す。
我々のアプローチは、定常分布と経験分布の差を補正する比率を推定することに基づいている。
結果として得られるアルゴリズム、GenDICEは単純で効果的である。
論文 参考訳(メタデータ) (2020-02-21T00:27:52Z) - Fast Fair Regression via Efficient Approximations of Mutual Information [0.0]
本稿では, 回帰モデルに対する独立性, 分離性, 充足性グループフェアネス基準の高速な近似について紹介する。
正規化リスク最小化フレームワーク内で公正性を強制するために、正規化のような近似を使用する。
実世界のデータセットでの実験では、計算効率が優れているにもかかわらず、我々のアルゴリズムは依然として最先端の精度/フェアネスのトレードオフを示す。
論文 参考訳(メタデータ) (2020-02-14T08:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。