論文の概要: Accounting for Model Uncertainty in Algorithmic Discrimination
- arxiv url: http://arxiv.org/abs/2105.04249v1
- Date: Mon, 10 May 2021 10:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 20:57:03.608812
- Title: Accounting for Model Uncertainty in Algorithmic Discrimination
- Title(参考訳): アルゴリズム判別におけるモデル不確かさの会計
- Authors: Junaid Ali, Preethi Lahoti, Krishna P. Gummadi
- Abstract要約: フェアネスアプローチは、モデルの不確実性に起因するエラーの均等化にのみ焦点をあてるべきである。
予測多重性とモデル不確実性の間に関係をもち、予測多重性からの手法がモデル不確実性に起因するエラーの特定に使用できると主張する。
- 参考スコア(独自算出の注目度): 16.654676310264705
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional approaches to ensure group fairness in algorithmic decision
making aim to equalize ``total'' error rates for different subgroups in the
population. In contrast, we argue that the fairness approaches should instead
focus only on equalizing errors arising due to model uncertainty (a.k.a
epistemic uncertainty), caused due to lack of knowledge about the best model or
due to lack of data. In other words, our proposal calls for ignoring the errors
that occur due to uncertainty inherent in the data, i.e., aleatoric
uncertainty. We draw a connection between predictive multiplicity and model
uncertainty and argue that the techniques from predictive multiplicity could be
used to identify errors made due to model uncertainty. We propose scalable
convex proxies to come up with classifiers that exhibit predictive multiplicity
and empirically show that our methods are comparable in performance and up to
four orders of magnitude faster than the current state-of-the-art. We further
propose methods to achieve our goal of equalizing group error rates arising due
to model uncertainty in algorithmic decision making and demonstrate the
effectiveness of these methods using synthetic and real-world datasets.
- Abstract(参考訳): アルゴリズム決定におけるグループフェアネスを保証する伝統的なアプローチは、集団内の異なるサブグループに対して ``total'' エラー率を等化することを目的としている。
対照的に、フェアネスアプローチは、モデルの不確実性(つまり、疫学的な不確実性)によって生じるエラーの等化にのみ焦点をあてるべきであり、最良のモデルに関する知識の欠如やデータの欠如によって引き起こされるものである。
言い換えれば、我々の提案は、データに固有の不確実性、すなわちアレータティック不確実性によって生じるエラーを無視することを要求する。
予測多重度とモデル不確実性の関係を考察し,モデル不確実性に起因する誤差の同定に予測多重度を用いた手法が有用であると主張する。
予測多重度を示す分類器を考案するために,スケーラブルな凸プロキシを提案し,提案手法が性能に匹敵し,現在の最先端技術よりも最大4桁高速であることを示す。
さらに,アルゴリズム的意思決定におけるモデル不確実性に起因するグループ誤り率の均等化を目標とし,合成データと実世界データを用いた手法の有効性を実証する。
関連論文リスト
- Uncertainty Quantification via Hölder Divergence for Multi-View Representation Learning [18.419742575630217]
本稿では,H"older Divergence (HD)に基づく新しいアルゴリズムを導入し,多視点学習の信頼性を高める。
デンプスター・シェーファー理論を通じて、異なるモダリティからの不確実性の統合により、包括的な結果が生成される。
数学的には、HDは実際のデータ分布とモデルの予測分布の間の距離'をよりよく測定できることを証明している。
論文 参考訳(メタデータ) (2024-10-29T04:29:44Z) - One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Identifying Drivers of Predictive Aleatoric Uncertainty [2.5311562666866494]
本稿では,予測的アレタリック不確実性を説明するための簡単なアプローチを提案する。
我々は、ガウス出力分布にニューラルネットワークを適用することにより、不確実性を予測分散として推定する。
我々は、実世界のデータセットを含むニュアンスなベンチマーク分析を用いて、この結果の定量化を行う。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Adversarial Attack for Uncertainty Estimation: Identifying Critical
Regions in Neural Networks [0.0]
本稿では,ニューラルネットワークにおける決定境界付近のデータポイントをキャプチャする手法を提案する。
不確実性推定は、モデルのパラメータに摂動を与える以前の研究とは異なり、入力摂動から導かれる。
提案手法は,他の手法よりも優れた性能を示し,機械学習におけるモデル不確実性を捉えるリスクが低いことを示した。
論文 参考訳(メタデータ) (2021-07-15T21:30:26Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Identifying Causal-Effect Inference Failure with Uncertainty-Aware
Models [41.53326337725239]
本稿では,不確実性推定を最先端のニューラルネットワーク手法のクラスに統合する実践的アプローチを提案する。
提案手法は,高次元データに共通する「非オーバーラップ」の状況に優雅に対処できることを示す。
正確なモデリングの不確実性は、過度に自信を持ち、潜在的に有害なレコメンデーションを与えるのを防ぐことができる。
論文 参考訳(メタデータ) (2020-07-01T00:37:41Z) - Efficient Ensemble Model Generation for Uncertainty Estimation with
Bayesian Approximation in Segmentation [74.06904875527556]
アンサンブルセグメンテーションモデルを構築するための汎用的で効率的なセグメンテーションフレームワークを提案する。
提案手法では,層選択法を用いて効率よくアンサンブルモデルを生成することができる。
また,新たな画素単位の不確実性損失を考案し,予測性能を向上する。
論文 参考訳(メタデータ) (2020-05-21T16:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。