論文の概要: Algorithmic Decision Making with Conditional Fairness
- arxiv url: http://arxiv.org/abs/2006.10483v5
- Date: Sun, 18 Jul 2021 17:20:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 12:37:23.708031
- Title: Algorithmic Decision Making with Conditional Fairness
- Title(参考訳): 条件フェアネスによるアルゴリズム決定
- Authors: Renzhe Xu, Peng Cui, Kun Kuang, Bo Li, Linjun Zhou, Zheyan Shen, Wei
Cui
- Abstract要約: 条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
- 参考スコア(独自算出の注目度): 48.76267073341723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays fairness issues have raised great concerns in decision-making
systems. Various fairness notions have been proposed to measure the degree to
which an algorithm is unfair. In practice, there frequently exist a certain set
of variables we term as fair variables, which are pre-decision covariates such
as users' choices. The effects of fair variables are irrelevant in assessing
the fairness of the decision support algorithm. We thus define conditional
fairness as a more sound fairness metric by conditioning on the fairness
variables. Given different prior knowledge of fair variables, we demonstrate
that traditional fairness notations, such as demographic parity and equalized
odds, are special cases of our conditional fairness notations. Moreover, we
propose a Derivable Conditional Fairness Regularizer (DCFR), which can be
integrated into any decision-making model, to track the trade-off between
precision and fairness of algorithmic decision making. Specifically, an
adversarial representation based conditional independence loss is proposed in
our DCFR to measure the degree of unfairness. With extensive experiments on
three real-world datasets, we demonstrate the advantages of our conditional
fairness notation and DCFR.
- Abstract(参考訳): 今日では公平性の問題が意思決定システムに大きな懸念を巻き起こしている。
アルゴリズムが不公平である程度を測定するために、様々な公平性の概念が提案されている。
実際、私たちがフェア変数と呼ぶ特定の変数セットは、ユーザーの選択のような事前決定共変量であることが多い。
公平変数の効果は、決定支援アルゴリズムの公平性を評価する上で無関係である。
したがって条件付きフェアネスを、フェアネス変数の条件付けによりより健全なフェアネスメトリックと定義する。
公正変数の事前知識が異なることから、人口的パーティや等化奇数といった伝統的な公正表記は、条件付き公正表記の特別な場合であることを示す。
さらに,任意の意思決定モデルに統合可能な導出条件公正規則化器(DCFR)を提案し,アルゴリズムによる意思決定の精度と公平性のトレードオフを追跡する。
具体的には,不公平さの程度を測定するために,条件付き独立損失に基づく敵意表現を提案する。
3つの実世界のデータセットに関する広範な実験により、条件付きフェアネス表記法とdcfrの利点を実証する。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Remembering to Be Fair: Non-Markovian Fairness in Sequential Decision Making [15.289872878202399]
我々は、連続的な意思決定の文脈における非マルコフ的公正の概念を探求する。
非マルコフ的フェアネスの性質を同定し、長期的、時空的、周期的、有界公正の概念を含む。
フェアポリシの合成において,サンプル効率を向上させるために,トレーニングデータを自動的に拡張するFairQCMアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-12-08T01:04:36Z) - Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - BaBE: Enhancing Fairness via Estimation of Latent Explaining Variables [6.7932860553262415]
両集団間の不公平な差別の問題を考察し,公平性を達成するための事前処理手法を提案する。
BaBEはベイズ推論と期待最大化法を組み合わせたアプローチである。
合成および実データ集合の実験により、我々の手法は高い精度と高い公平性を提供することを示した。
論文 参考訳(メタデータ) (2023-07-06T09:53:56Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - On Learning and Testing of Counterfactual Fairness through Data
Preprocessing [27.674565351048077]
機械学習は実生活における意思決定においてますます重要になっているが、人々は不適切な使用によってもたらされる倫理的問題を懸念している。
最近の研究は、機械学習の公正性に関する議論を因果的枠組みに持ち込み、対実的公正性の概念を精査している。
偏りのあるトレーニングデータから対実的に公正な決定を学習するために,dAta前処理(FLAP)アルゴリズムを用いてフェアラーニングを開発する。
論文 参考訳(メタデータ) (2022-02-25T00:21:46Z) - Unfairness Despite Awareness: Group-Fair Classification with Strategic
Agents [37.31138342300617]
戦略エージェントは、より良好な結果を得るために観察された特徴ベクトルを操作する能力とインセンティブの両方を持っている可能性があることを示す。
さらに、有利な群が過剰に表現される領域で公平な学習を行う際に、公平な分類器の選択性が増大し、したがって公正さが失われることが示される。
論文 参考訳(メタデータ) (2021-12-06T02:42:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。