論文の概要: Retiring $\Delta$DP: New Distribution-Level Metrics for Demographic
Parity
- arxiv url: http://arxiv.org/abs/2301.13443v3
- Date: Sat, 10 Jun 2023 03:13:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 01:32:30.957834
- Title: Retiring $\Delta$DP: New Distribution-Level Metrics for Demographic
Parity
- Title(参考訳): Delta$DPの廃止: デモグラフィックパーティのための新しい配布レベルメトリクス
- Authors: Xiaotian Han, Zhimeng Jiang, Hongye Jin, Zirui Liu, Na Zou, Qifan
Wang, Xia Hu
- Abstract要約: デルタDP$のフェアネス指標は、人口格差の違反を正確に測定することはできない。
確率密度関数曲線(ABPC)と累積密度関数曲線(ABCC)の2つの新しいフェアネス指標を提案する。
提案手法では, ABCC/ABPCがゼロ値であること, ABCC/ABPCがゼロ値であること, ABCC/ABPCが階層パリティを保証し, 分類しきい値の調整を行う。
- 参考スコア(独自算出の注目度): 47.78843764957511
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Demographic parity is the most widely recognized measure of group fairness in
machine learning, which ensures equal treatment of different demographic
groups. Numerous works aim to achieve demographic parity by pursuing the
commonly used metric $\Delta DP$. Unfortunately, in this paper, we reveal that
the fairness metric $\Delta DP$ can not precisely measure the violation of
demographic parity, because it inherently has the following drawbacks: i)
zero-value $\Delta DP$ does not guarantee zero violation of demographic parity,
ii) $\Delta DP$ values can vary with different classification thresholds. To
this end, we propose two new fairness metrics, Area Between Probability density
function Curves (ABPC) and Area Between Cumulative density function Curves
(ABCC), to precisely measure the violation of demographic parity at the
distribution level. The new fairness metrics directly measure the difference
between the distributions of the prediction probability for different
demographic groups. Thus our proposed new metrics enjoy: i) zero-value
ABCC/ABPC guarantees zero violation of demographic parity; ii) ABCC/ABPC
guarantees demographic parity while the classification thresholds are adjusted.
We further re-evaluate the existing fair models with our proposed fairness
metrics and observe different fairness behaviors of those models under the new
metrics. The code is available at
https://github.com/ahxt/new_metric_for_demographic_parity
- Abstract(参考訳): 人口格差は機械学習において最も広く認識されている集団公平度尺度であり、異なる集団の平等な扱いを保証する。
多くの作品は、一般的に使われる計量である$\delta dp$を追求することで、人口格差を達成することを目指している。
残念なことに、本論文では、フェアネス指標の$\Delta DP$は、本質的に以下の欠点があるため、人口統計学的平等違反を正確に測定することはできない。
i) ゼロ値$\Delta DP$は、人口比率のゼロ違反を保証しない。
i)$\Delta DP$値は、分類しきい値によって異なる。
そこで本研究では,確率密度関数曲線 (ABPC) と累積密度関数曲線 (ABCC) の2つの新しい公正度尺度を提案し,分布レベルでの人口統計学的等価性の違反を正確に測定する。
新しい公平度指標は、異なる人口統計グループに対する予測確率の分布の差を直接測定する。
そこで、提案する新しいメトリクスを楽しめます。
一 ABCC/ABPCは、人口格差のゼロを保障する。
二 ABCC/ABPCは、分類基準が調整されている間、人口格差を保証する。
さらに,提案する公平度指標を用いて,既存の公正度モデルを再評価し,新しい測定基準の下で異なる公平度挙動を観察する。
コードはhttps://github.com/ahxt/new_metric_for_demographic_parityで入手できる。
関連論文リスト
- Score Normalization for Demographic Fairness in Face Recognition [16.421833444307232]
有名なサンプル中心スコア正規化技術であるZ-normとT-normは、高セキュリティ動作点の公平性を向上しない。
標準Z/Tノルムを拡張し、正規化における人口統計情報を統合する。
本手法は,5つの最先端の顔認識ネットワークの全体的な公正性を改善する。
論文 参考訳(メタデータ) (2024-07-19T07:51:51Z) - Individual Fairness Through Reweighting and Tuning [0.23395944472515745]
社会内の本質的なバイアスは、人工知能(AI)システムによって増幅し、永続することができる。
近年,グラフラプラシアン正則化器 (GLR) が一般リプシッツ条件の代用として用いられ,個人の公正性を高めている。
本研究では,GLRを列車上で独立に定義し,目標データに類似した精度を維持できるかどうかを検討した。
論文 参考訳(メタデータ) (2024-05-02T20:15:25Z) - Minimax Optimal Fair Classification with Bounded Demographic Disparity [28.936244976415484]
本稿では,2つの保護群による公正二項分類の統計的基礎について考察する。
有限サンプルを用いると、グループ固有の受容閾値を推定する必要があるため、追加のコストが発生することを示す。
オフセットを持つグループワイドしきい値法であるFairBayes-DDP+を提案する。
論文 参考訳(メタデータ) (2024-03-27T02:59:04Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Semidefinite programming on population clustering: a global analysis [0.6472434306724609]
サブガウス分布の混合から引き出された小さいデータサンプルを$n$で分割する問題を考察する。
私たちは、個々のフィーチャが平均的な$gamma$が低い場合に興味を持ち、サンプルを正しく分割するためにできるだけ少数の機能を使用したいと思っています。
論文 参考訳(メタデータ) (2023-01-01T04:52:25Z) - Estimating Structural Disparities for Face Models [54.062512989859265]
機械学習では、異なるサブ人口間でのモデルの性能や結果の差を測定することで、しばしば異質度の測定が定義される。
本研究では、人間の顔に訓練されたコンピュータビジョンモデルや、顔属性予測や影響推定などのタスクについて、そのような分析を行う。
論文 参考訳(メタデータ) (2022-04-13T05:30:53Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - A First Step Towards Distribution Invariant Regression Metrics [1.370633147306388]
分類において、F-Measure や Accuracy のようなパフォーマンス指標は、クラス分布に大きく依存していると繰り返し述べられている。
ロボットアプリケーションにおけるオドメトリパラメータの分布は,例えば,異なるセッション間で大きく異なる可能性がある。
ここでは、すべての関数値に対して等しく機能する回帰アルゴリズムや、高速のような特定の境界領域にフォーカスする回帰アルゴリズムが必要です。
論文 参考訳(メタデータ) (2020-09-10T23:40:46Z) - Improving Semi-supervised Federated Learning by Reducing the Gradient
Diversity of Models [67.66144604972052]
Federated Learning(FL)は、ユーザのプライバシを維持しながらモバイルデバイスのコンピューティングパワーを使用する、有望な方法だ。
テスト精度に影響を与える重要な問題は、異なるユーザーからのモデルの勾配の多様性であることを示す。
本稿では,FedAvg平均化を代替するグループモデル平均化手法を提案する。
論文 参考訳(メタデータ) (2020-08-26T03:36:07Z) - On the Relation between Quality-Diversity Evaluation and
Distribution-Fitting Goal in Text Generation [86.11292297348622]
本研究では, 品質と多様性の線形結合が, 生成した分布と実分布との分岐距離を構成することを示す。
品質/多様性メトリックペアの代替としてCR/NRRを提案する。
論文 参考訳(メタデータ) (2020-07-03T04:06:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。