論文の概要: Attainability and Optimality: The Equalized Odds Fairness Revisited
- arxiv url: http://arxiv.org/abs/2202.11853v1
- Date: Thu, 24 Feb 2022 01:30:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-26 05:53:28.226675
- Title: Attainability and Optimality: The Equalized Odds Fairness Revisited
- Title(参考訳): 達成性と最適性:等化オッドの公正性の再考
- Authors: Zeyu Tang, Kun Zhang
- Abstract要約: 等化オッドの公正性の概念の達成可能性を考える。
分類において、後処理による公平性を強制することと比較して、利用可能なすべての機能を利用する利点が常にあることを証明します。
性能予測は理論的保証で等化オッドを達成できるが、その限界と潜在的な負の社会的影響についても論じる。
- 参考スコア(独自算出の注目度): 8.44348159032116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness of machine learning algorithms has been of increasing interest. In
order to suppress or eliminate discrimination in prediction, various notions as
well as approaches have been proposed to impose fairness. Given a notion of
fairness, an essential problem is then whether or not it can always be
attained, even if with an unlimited amount of data. This issue is, however, not
well addressed yet. In this paper, focusing on the Equalized Odds notion of
fairness, we consider the attainability of this criterion and, furthermore, if
it is attainable, the optimality of the prediction performance under various
settings. In particular, for prediction performed by a deterministic function
of input features, we give conditions under which Equalized Odds can hold true;
if the stochastic prediction is acceptable, we show that under mild
assumptions, fair predictors can always be derived. For classification, we
further prove that compared to enforcing fairness by post-processing, one can
always benefit from exploiting all available features during training and get
potentially better prediction performance while remaining fair. Moreover, while
stochastic prediction can attain Equalized Odds with theoretical guarantees, we
also discuss its limitation and potential negative social impacts.
- Abstract(参考訳): 機械学習アルゴリズムの公平性が注目されている。
予測における差別を抑圧または排除するために、公正を課すために様々な概念とアプローチが提案されている。
公平性の概念が与えられた場合、無限のデータ量であっても、それが常に達成できるかどうかが本質的な問題となる。
しかし、この問題はまだ解決されていない。
本稿では,等化オッドの公平性の概念に着目し,この基準の達成可能性,さらに,達成可能であれば,様々な条件下での予測性能の最適性について考察する。
特に、入力特徴の定式化関数によって実行される予測について、等化オッドが真であるような条件を与え、確率的予測が受け入れられるならば、軽度な仮定の下では、常に公平な予測が導出可能であることを示す。
分類において、後処理による公正化よりも、トレーニング中に利用可能なすべての機能を活用でき、公正なままで予測性能が向上する可能性があることを証明している。
さらに,確率的予測は理論的保証をもって等化オッドを達成できる一方で,その限界や潜在的な負の社会的影響についても議論する。
関連論文リスト
- FairlyUncertain: A Comprehensive Benchmark of Uncertainty in Algorithmic Fairness [4.14360329494344]
フェアネスにおける不確実性評価のための公理的ベンチマークであるFairlyUncertainを紹介する。
我々のベンチマークは、予測の不確実性推定は学習パイプライン間で一貫性があり、観測されたランダム性に調整されるべきである、と示唆している。
論文 参考訳(メタデータ) (2024-10-02T20:15:29Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Counterfactual Fairness for Predictions using Generative Adversarial
Networks [28.65556399421874]
我々は, 対実フェアネスの下で予測を行うための, GCFN (Generative Counterfactual Fairness Network) と呼ばれる新しいディープニューラルネットワークを開発した。
本手法は, 対実的公正性の概念を保証するために数学的に保証されている。
論文 参考訳(メタデータ) (2023-10-26T17:58:39Z) - Understanding Fairness Surrogate Functions in Algorithmic Fairness [21.555040357521907]
フェアネスの定義とフェアネスのサロゲート関数の間には、サロゲートとフェアネスのギャップがあることが示される。
我々は、不公平を緩和するギャップを反復的に減少させる「バランスド・サロゲート」という、新規で一般的なアルゴリズムを精査する。
論文 参考訳(メタデータ) (2023-10-17T12:40:53Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fairness through Aleatoric Uncertainty [18.95295731419523]
フェアネス・ユーティリティ・トレードオフを改善するために、アレタリック不確実性(例えば、データのあいまいさ)を活用するという考え方を紹介します。
我々の中心的な仮説は、アレタリック不確実性はアルゴリズムの公正性の鍵となる要素であるということである。
次に,アレータリック不確実性が高い場合の公平性を向上し,他の分野での有効性を向上させるための基本モデルを提案する。
論文 参考訳(メタデータ) (2023-04-07T13:50:57Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Predictive Inference with Feature Conformal Prediction [80.77443423828315]
本稿では,特徴空間への共形予測の範囲を拡大する特徴共形予測を提案する。
理論的観点からは、特徴共形予測は軽度の仮定の下で正則共形予測よりも確実に優れていることを示す。
提案手法は,バニラ共形予測だけでなく,他の適応共形予測手法と組み合わせることができる。
論文 参考訳(メタデータ) (2022-10-01T02:57:37Z) - Prediction Sensitivity: Continual Audit of Counterfactual Fairness in
Deployed Classifiers [2.0625936401496237]
従来のグループフェアネスのメトリクスは個人に対する差別を見逃しかねず、デプロイ後に適用するのが困難である。
本稿では,デプロイされた分類器における対実的公正性の連続的な監査手法である予測感度について述べる。
実証実験の結果,予測感度は反実的公正さの違反を検出するのに有効であることが示された。
論文 参考訳(メタデータ) (2022-02-09T15:06:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。