論文の概要: Identifying Causal-Effect Inference Failure with Uncertainty-Aware
Models
- arxiv url: http://arxiv.org/abs/2007.00163v2
- Date: Thu, 22 Oct 2020 20:52:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 22:01:20.067076
- Title: Identifying Causal-Effect Inference Failure with Uncertainty-Aware
Models
- Title(参考訳): 不確かさ認識モデルによる因果推論失敗の同定
- Authors: Andrew Jesson, S\"oren Mindermann, Uri Shalit and Yarin Gal
- Abstract要約: 本稿では,不確実性推定を最先端のニューラルネットワーク手法のクラスに統合する実践的アプローチを提案する。
提案手法は,高次元データに共通する「非オーバーラップ」の状況に優雅に対処できることを示す。
正確なモデリングの不確実性は、過度に自信を持ち、潜在的に有害なレコメンデーションを与えるのを防ぐことができる。
- 参考スコア(独自算出の注目度): 41.53326337725239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommending the best course of action for an individual is a major
application of individual-level causal effect estimation. This application is
often needed in safety-critical domains such as healthcare, where estimating
and communicating uncertainty to decision-makers is crucial. We introduce a
practical approach for integrating uncertainty estimation into a class of
state-of-the-art neural network methods used for individual-level causal
estimates. We show that our methods enable us to deal gracefully with
situations of "no-overlap", common in high-dimensional data, where standard
applications of causal effect approaches fail. Further, our methods allow us to
handle covariate shift, where test distribution differs to train distribution,
common when systems are deployed in practice. We show that when such a
covariate shift occurs, correctly modeling uncertainty can keep us from giving
overconfident and potentially harmful recommendations. We demonstrate our
methodology with a range of state-of-the-art models. Under both covariate shift
and lack of overlap, our uncertainty-equipped methods can alert decisions
makers when predictions are not to be trusted while outperforming their
uncertainty-oblivious counterparts.
- Abstract(参考訳): 個人に対する最善の行動経路を推奨することは、個人レベルの因果効果推定の主要な応用である。
このアプリケーションは、意思決定者に対する不確実性の推定と伝達が不可欠である、ヘルスケアのような安全クリティカルな領域でしばしば必要となる。
個人レベルの因果推定に使用される最先端のニューラルネットワーク手法に不確実性推定を統合するための実践的アプローチを提案する。
因果効果の標準的な適用が失敗する高次元データに共通する「ノーオーバーラップ」の状況に対して,我々の手法が優雅に対処できることを示す。
さらに,本手法では,テスト分布が異なる共変量シフトを,実運用時に共通する列車分布に対処することができる。
このような共変量シフトが発生すると、不確かさを正しくモデル化することで、自信過剰で潜在的に有害な推奨を行うことを防げることが示された。
我々は、最先端のモデルで方法論を実証する。
共変量シフトと重複の欠如の両方の下で、我々の不確実性を備えた手法は、予測が信頼されないときに意思決定者に警告する。
関連論文リスト
- One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Benchmarking common uncertainty estimation methods with
histopathological images under domain shift and label noise [62.997667081978825]
リスクの高い環境では、深層学習モデルは不確実性を判断し、誤分類の可能性がかなり高い場合に入力を拒否しなければなりません。
我々は,全スライド画像の分類において,最もよく使われている不確実性と頑健さの厳密な評価を行う。
我々は一般的に,手法のアンサンブルが,ドメインシフトやラベルノイズに対するロバスト性の向上とともに,より良い不確実性評価につながることを観察する。
論文 参考訳(メタデータ) (2023-01-03T11:34:36Z) - The Implicit Delta Method [61.36121543728134]
本稿では,不確実性のトレーニング損失を無限に正規化することで機能する,暗黙のデルタ法を提案する。
有限差分により無限小変化が近似された場合でも, 正則化による評価の変化は評価推定器の分散に一定であることを示す。
論文 参考訳(メタデータ) (2022-11-11T19:34:17Z) - Adversarial Attack for Uncertainty Estimation: Identifying Critical
Regions in Neural Networks [0.0]
本稿では,ニューラルネットワークにおける決定境界付近のデータポイントをキャプチャする手法を提案する。
不確実性推定は、モデルのパラメータに摂動を与える以前の研究とは異なり、入力摂動から導かれる。
提案手法は,他の手法よりも優れた性能を示し,機械学習におけるモデル不確実性を捉えるリスクが低いことを示した。
論文 参考訳(メタデータ) (2021-07-15T21:30:26Z) - Accounting for Model Uncertainty in Algorithmic Discrimination [16.654676310264705]
フェアネスアプローチは、モデルの不確実性に起因するエラーの均等化にのみ焦点をあてるべきである。
予測多重性とモデル不確実性の間に関係をもち、予測多重性からの手法がモデル不確実性に起因するエラーの特定に使用できると主張する。
論文 参考訳(メタデータ) (2021-05-10T10:34:12Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - MissDeepCausal: Causal Inference from Incomplete Data Using Deep Latent
Variable Models [14.173184309520453]
因果推論の最先端の手法は、欠落した値を考慮していない。
欠落したデータは、適応された未確立仮説を必要とする。
欠落した値に適応した変分オートエンコーダを通じて分布を学習する潜在的共同設立者について考察する。
論文 参考訳(メタデータ) (2020-02-25T12:58:07Z) - Uncertainty-Based Out-of-Distribution Classification in Deep
Reinforcement Learning [17.10036674236381]
アウト・オブ・ディストリビューションデータの誤予測は、機械学習システムにおける安全性の危機的状況を引き起こす可能性がある。
我々は不確実性に基づくOOD分類のためのフレームワークUBOODを提案する。
UBOODはアンサンブルに基づく推定器と組み合わせることで,信頼性の高い分類結果が得られることを示す。
論文 参考訳(メタデータ) (2019-12-31T09:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。