論文の概要: Fairness through Aleatoric Uncertainty
- arxiv url: http://arxiv.org/abs/2304.03646v1
- Date: Fri, 7 Apr 2023 13:50:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 11:57:42.030005
- Title: Fairness through Aleatoric Uncertainty
- Title(参考訳): Aleatoric Uncertainity によるフェアネス
- Authors: Anique Tahir, Lu Cheng and Huan Liu
- Abstract要約: 機械学習の分類タスクにおいて、フェアネスとユーティリティという、しばしば競合する目標に対処するためのユニークなソリューションを提案する。
我々の目的は不確実性と公平性との関係を調査することである。
分類の不確実性の低い試料は, 高い不確実性を有する試料よりも, より正確に, 公平にモデル化されていることを示す。
- 参考スコア(独自算出の注目度): 37.518709458668354
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a unique solution to tackle the often-competing goals of fairness
and utility in machine learning classification tasks. While fairness ensures
that the model's predictions are unbiased and do not discriminate against any
particular group, utility focuses on maximizing the accuracy of the model's
predictions. Our aim is to investigate the relationship between uncertainty and
fairness. Our approach leverages this concept by employing Bayesian learning to
estimate the uncertainty in sample predictions where the estimation is
independent of confounding effects related to the protected attribute. Through
empirical evidence, we show that samples with low classification uncertainty
are modeled more accurately and fairly than those with high uncertainty, which
may have biased representations and higher prediction errors. To address the
challenge of balancing fairness and utility, we propose a novel
fairness-utility objective that is defined based on uncertainty quantification.
The weights in this objective are determined by the level of uncertainty,
allowing us to optimize both fairness and utility simultaneously. Experiments
on real-world datasets demonstrate the effectiveness of our approach. Our
results show that our method outperforms state-of-the-art methods in terms of
the fairness-utility tradeoff and this applies to both group and individual
fairness metrics. This work presents a fresh perspective on the trade-off
between accuracy and fairness in machine learning and highlights the potential
of using uncertainty as a means to achieve optimal fairness and utility.
- Abstract(参考訳): 機械学習の分類タスクにおいて、フェアネスとユーティリティという、しばしば競合する目標に対処するためのユニークなソリューションを提案する。
公平さはモデルの予測が偏りがなく、特定のグループと区別しないことを保証するが、実用性はモデルの予測の精度を最大化することに焦点を当てる。
我々の目標は不確実性と公平性との関係を調べることである。
本研究では,この概念をベイズ学習を用いて評価し,保護属性の共起効果とは無関係なサンプル予測における不確かさを推定する。
実証的な証拠から,分類の不確かさの低いサンプルは,偏りのある表現と高い予測誤差を持つ高い不確かさのサンプルよりも,より正確に,公平にモデル化されていることを示す。
公平性と実用性のバランスを取るための課題として,不確実性定量化に基づく新しい公平性有効性目標を提案する。
この目的の重みは不確実性のレベルによって決定され、公平性と実用性を同時に最適化することができる。
実世界のデータセットの実験は、我々のアプローチの有効性を示す。
本手法は, フェアネス・ユーティリティ・トレードオフの観点から, 最先端の手法よりも優れており, グループと個人の両方のフェアネス指標に適用できる。
本研究は,機械学習における精度と公平性のトレードオフについて,新たな視点を示し,不確実性を最適な公正性と有用性を達成する手段として活用する可能性を強調する。
関連論文リスト
- FairlyUncertain: A Comprehensive Benchmark of Uncertainty in Algorithmic Fairness [4.14360329494344]
フェアネスにおける不確実性評価のための公理的ベンチマークであるFairlyUncertainを紹介する。
我々のベンチマークは、予測の不確実性推定は学習パイプライン間で一貫性があり、観測されたランダム性に調整されるべきである、と示唆している。
論文 参考訳(メタデータ) (2024-10-02T20:15:29Z) - One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Understanding Fairness Surrogate Functions in Algorithmic Fairness [21.555040357521907]
フェアネスの定義とフェアネスのサロゲート関数の間には、サロゲートとフェアネスのギャップがあることが示される。
我々は、不公平を緩和するギャップを反復的に減少させる「バランスド・サロゲート」という、新規で一般的なアルゴリズムを精査する。
論文 参考訳(メタデータ) (2023-10-17T12:40:53Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - RobustFair: Adversarial Evaluation through Fairness Confusion Directed
Gradient Search [8.278129731168127]
ディープニューラルネットワーク(DNN)は、様々な敵の摂動に対する脆弱性のため、しばしば課題に直面している。
本稿では, 偽りや偏りのある摂動を受ける場合のDNNの正確な公平性を評価するための新しいアプローチであるRobustFairを紹介する。
論文 参考訳(メタデータ) (2023-05-18T12:07:29Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Accounting for Model Uncertainty in Algorithmic Discrimination [16.654676310264705]
フェアネスアプローチは、モデルの不確実性に起因するエラーの均等化にのみ焦点をあてるべきである。
予測多重性とモデル不確実性の間に関係をもち、予測多重性からの手法がモデル不確実性に起因するエラーの特定に使用できると主張する。
論文 参考訳(メタデータ) (2021-05-10T10:34:12Z) - Accuracy and Fairness Trade-offs in Machine Learning: A Stochastic
Multi-Objective Approach [0.0]
機械学習を実生活の意思決定システムに適用すると、予測結果は機密性の高い属性を持つ人々に対して差別され、不公平になる可能性がある。
公正機械学習における一般的な戦略は、予測損失の最小化において、制約や罰則として公正さを含めることである。
本稿では,多目的最適化問題を定式化して公平性を扱うための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-03T18:51:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。