論文の概要: Fairness through Aleatoric Uncertainty
- arxiv url: http://arxiv.org/abs/2304.03646v2
- Date: Tue, 15 Aug 2023 07:09:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 17:00:30.161756
- Title: Fairness through Aleatoric Uncertainty
- Title(参考訳): Aleatoric Uncertainity によるフェアネス
- Authors: Anique Tahir, Lu Cheng and Huan Liu
- Abstract要約: フェアネス・ユーティリティ・トレードオフを改善するために、アレタリック不確実性(例えば、データのあいまいさ)を活用するという考え方を紹介します。
我々の中心的な仮説は、アレタリック不確実性はアルゴリズムの公正性の鍵となる要素であるということである。
次に,アレータリック不確実性が高い場合の公平性を向上し,他の分野での有効性を向上させるための基本モデルを提案する。
- 参考スコア(独自算出の注目度): 18.95295731419523
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a simple yet effective solution to tackle the often-competing
goals of fairness and utility in classification tasks. While fairness ensures
that the model's predictions are unbiased and do not discriminate against any
particular group or individual, utility focuses on maximizing the model's
predictive performance. This work introduces the idea of leveraging aleatoric
uncertainty (e.g., data ambiguity) to improve the fairness-utility trade-off.
Our central hypothesis is that aleatoric uncertainty is a key factor for
algorithmic fairness and samples with low aleatoric uncertainty are modeled
more accurately and fairly than those with high aleatoric uncertainty. We then
propose a principled model to improve fairness when aleatoric uncertainty is
high and improve utility elsewhere. Our approach first intervenes in the data
distribution to better decouple aleatoric uncertainty and epistemic
uncertainty. It then introduces a fairness-utility bi-objective loss defined
based on the estimated aleatoric uncertainty. Our approach is theoretically
guaranteed to improve the fairness-utility trade-off. Experimental results on
both tabular and image datasets show that the proposed approach outperforms
state-of-the-art methods w.r.t. the fairness-utility trade-off and w.r.t. both
group and individual fairness metrics. This work presents a fresh perspective
on the trade-off between utility and algorithmic fairness and opens a key
avenue for the potential of using prediction uncertainty in fair machine
learning.
- Abstract(参考訳): 分類タスクにおける公平さと実用性の両面からしばしば競合する目標に対処するための,単純かつ効果的なソリューションを提案する。
公平さはモデルの予測が偏りがなく、特定のグループや個人と差別しないことを保証するが、ユーティリティーはモデルの予測性能を最大化することに焦点を当てる。
本研究は,不確実性(データ曖昧性など)を活用して公平性利用のトレードオフを改善するという考え方を導入する。
我々の中心となる仮説は、アルゴリズムの不確かさがアルゴリズムの不確実性の重要な要因であり、不確実性の低いサンプルは、高いアレベータ不確実性を持つ試料よりも正確かつ公平にモデル化されるというものである。
次に,不確実性が高い場合の公平性を改善するための原理モデルを提案し,他の場所での利用性を改善する。
提案手法は,まずデータ分布に介入し,アレエータ的不確実性と認識的不確実性を分離する。
次に、推定されたアレタリック不確実性に基づいて定義されるフェアネスユーティリティー双対象損失を導入する。
われわれのアプローチは理論的にフェアネス・ユーティリティ・トレードオフを改善することが保証されている。
表と画像の両方のデータセットによる実験結果から,提案手法は,フェアネス・ユーティリティトレードオフやグループおよび個人フェアネスの指標よりも優れていることがわかった。
本研究は,実用性とアルゴリズムフェアネスのトレードオフに関する新たな視点を示し,フェア機械学習における予測不確実性を利用する可能性の鍵となる道を開く。
関連論文リスト
- FairlyUncertain: A Comprehensive Benchmark of Uncertainty in Algorithmic Fairness [4.14360329494344]
フェアネスにおける不確実性評価のための公理的ベンチマークであるFairlyUncertainを紹介する。
我々のベンチマークは、予測の不確実性推定は学習パイプライン間で一貫性があり、観測されたランダム性に調整されるべきである、と示唆している。
論文 参考訳(メタデータ) (2024-10-02T20:15:29Z) - One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Understanding Fairness Surrogate Functions in Algorithmic Fairness [21.555040357521907]
フェアネスの定義とフェアネスのサロゲート関数の間には、サロゲートとフェアネスのギャップがあることが示される。
我々は、不公平を緩和するギャップを反復的に減少させる「バランスド・サロゲート」という、新規で一般的なアルゴリズムを精査する。
論文 参考訳(メタデータ) (2023-10-17T12:40:53Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - RobustFair: Adversarial Evaluation through Fairness Confusion Directed
Gradient Search [8.278129731168127]
ディープニューラルネットワーク(DNN)は、様々な敵の摂動に対する脆弱性のため、しばしば課題に直面している。
本稿では, 偽りや偏りのある摂動を受ける場合のDNNの正確な公平性を評価するための新しいアプローチであるRobustFairを紹介する。
論文 参考訳(メタデータ) (2023-05-18T12:07:29Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Accounting for Model Uncertainty in Algorithmic Discrimination [16.654676310264705]
フェアネスアプローチは、モデルの不確実性に起因するエラーの均等化にのみ焦点をあてるべきである。
予測多重性とモデル不確実性の間に関係をもち、予測多重性からの手法がモデル不確実性に起因するエラーの特定に使用できると主張する。
論文 参考訳(メタデータ) (2021-05-10T10:34:12Z) - Accuracy and Fairness Trade-offs in Machine Learning: A Stochastic
Multi-Objective Approach [0.0]
機械学習を実生活の意思決定システムに適用すると、予測結果は機密性の高い属性を持つ人々に対して差別され、不公平になる可能性がある。
公正機械学習における一般的な戦略は、予測損失の最小化において、制約や罰則として公正さを含めることである。
本稿では,多目的最適化問題を定式化して公平性を扱うための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-03T18:51:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。