論文の概要: Diverse, Global and Amortised Counterfactual Explanations for
Uncertainty Estimates
- arxiv url: http://arxiv.org/abs/2112.02646v1
- Date: Sun, 5 Dec 2021 18:27:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 10:42:06.379442
- Title: Diverse, Global and Amortised Counterfactual Explanations for
Uncertainty Estimates
- Title(参考訳): 不確実性評価のための多変量・グローバル・アモータイズド対策
- Authors: Dan Ley, Umang Bhatt, Adrian Weller
- Abstract要約: 本稿では,識別可能な確率モデルからの不確実性推定を説明するために,非現実的不確実性説明法(CLUE)を提案する。
そこで我々は,不確実な入力の特定のグループに対する償却写像を学習する,GLobal AMortized CLUE (GLAM-CLUE) を提案する。
実験の結果, デルタ・クラエ, ナブラ・クラエ, GLAM・クラエは全て, CLUEの欠点に対処し, 不確実性推定を実践者に有益に説明できることが示唆された。
- 参考スコア(独自算出の注目度): 31.241489953967694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To interpret uncertainty estimates from differentiable probabilistic models,
recent work has proposed generating a single Counterfactual Latent Uncertainty
Explanation (CLUE) for a given data point where the model is uncertain,
identifying a single, on-manifold change to the input such that the model
becomes more certain in its prediction. We broaden the exploration to examine
{\delta}-CLUE, the set of potential CLUEs within a {\delta} ball of the
original input in latent space. We study the diversity of such sets and find
that many CLUEs are redundant; as such, we propose DIVerse CLUE
({\nabla}-CLUE), a set of CLUEs which each propose a distinct explanation as to
how one can decrease the uncertainty associated with an input. We then further
propose GLobal AMortised CLUE (GLAM-CLUE), a distinct and novel method which
learns amortised mappings on specific groups of uncertain inputs, taking them
and efficiently transforming them in a single function call into inputs for
which a model will be certain. Our experiments show that {\delta}-CLUE,
{\nabla}-CLUE, and GLAM-CLUE all address shortcomings of CLUE and provide
beneficial explanations of uncertainty estimates to practitioners.
- Abstract(参考訳): 微分確率モデルからの不確実性推定を解釈するために、最近の研究は、モデルが不確実である与えられたデータポイントに対して、モデルが予測においてより確実になるように、入力に対する1つのオンマンフォールドな変化を識別する単一の非確実性説明(CLUE)を生成することを提案した。
我々は、潜時空間における元の入力のデルタ球内の潜在的な CLUE の集合である {\delta}-CLUE を調べるための探索を拡大する。
このような集合の多様性を研究し,多くの手掛かりが冗長であることを見いだす。そこで我々は,入力に関する不確実性をいかに減少させるか,それぞれが個別に説明できる手掛かりである多様手掛かり({\nabla}-clue)を提案する。
さらに,GLobal AMortized CLUE (GLAM-CLUE) を提案する。これは,不確実な入力の特定のグループに対する償却写像を学習し,それらを単一の関数呼び出しで効率的に変換し,モデルが確実な入力に変換する方法である。
実験の結果, {\delta}-clue, {\nabla}-clueおよびglam-clueはいずれも手掛かりの欠点に対処し,不確実性推定の有益な説明を実践者に提供できることがわかった。
関連論文リスト
- Invariant Causal Prediction with Locally Linear Models [58.6243132840146]
観測データから対象変数の因果親を同定する作業を検討する。
親識別のための仮説テストに基づくLolicaPという実用的な手法を提案する。
我々は,LolicaPの統計的パワーが標本サイズにおいて指数関数的に高速に収束することを示す。
論文 参考訳(メタデータ) (2024-01-10T15:34:42Z) - Decomposing Uncertainty for Large Language Models through Input
Clarification Ensembling [74.00331519233026]
大規模言語モデル(LLM)のための不確実性分解フレームワークを提案する。
我々のフレームワークは入力の一連の明確化を生成し、それらを固定LLMに入力し、対応する予測をアンサンブルする。
実験により,提案手法は様々なタスクに対して正確かつ確実な不確実性定量化を提供することを示した。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Understanding Contrastive Learning via Distributionally Robust
Optimization [29.202594242468678]
本研究は,類似のセマンティクス(ラベルなど)を負のサンプルとして含むサンプリングバイアスに対するコントラッシブラーニング(CL)の固有の耐性を明らかにする。
本研究は,分散ロバスト最適化 (DRO) のレンズを用いてCLを解析することにより,この研究ギャップを橋渡しし,いくつかの重要な知見を得る。
また, CLの過保守性や異常値に対する感受性などの潜在的な欠点を同定し, これらの問題を緩和するための新しいAdjusted InfoNCE損失(ADNCE)を導入する。
論文 参考訳(メタデータ) (2023-10-17T07:32:59Z) - Flexible and Robust Counterfactual Explanations with Minimal Satisfiable
Perturbations [56.941276017696076]
我々は、最小満足度摂動(CEMSP)を用いた対実的説明法という概念的に単純だが効果的な解を提案する。
CEMSPは、意味論的に意味のある正常範囲の助けを借りて、異常な特徴の値を変更することを制限している。
既存の手法と比較して、我々は合成データセットと実世界のデータセットの両方で包括的な実験を行い、柔軟性を維持しつつ、より堅牢な説明を提供することを示した。
論文 参考訳(メタデータ) (2023-09-09T04:05:56Z) - Environment Invariant Linear Least Squares [18.387614531869826]
本稿では,複数の実験環境からのデータを収集する多環境線形回帰モデルについて考察する。
線形最小二乗回帰のマルチ環境バージョンである、新しい環境不変線形最小二乗関数(EILLS)を構築する。
論文 参考訳(メタデータ) (2023-03-06T13:10:54Z) - Open-Set Likelihood Maximization for Few-Shot Learning [36.97433312193586]
我々はFew-Shot Open-Set Recognition (FSOSR) 問題、すなわちいくつかのラベル付きサンプルしか持たないクラスのインスタンスを分類する問題に取り組む。
提案手法では,推論時に非競合なクエリインスタンスを利用する。
既存のトランスダクティブ手法はオープンセットのシナリオではうまく動作しないという観測により,最大極大原理の一般化を提案する。
論文 参考訳(メタデータ) (2023-01-20T01:56:19Z) - Composed Image Retrieval with Text Feedback via Multi-grained
Uncertainty Regularization [73.04187954213471]
粗い検索ときめ細かい検索を同時にモデル化する統合学習手法を提案する。
提案手法は、強いベースラインに対して+4.03%、+3.38%、+2.40%のRecall@50精度を達成した。
論文 参考訳(メタデータ) (2022-11-14T14:25:40Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - $\delta$-CLUE: Diverse Sets of Explanations for Uncertainty Estimates [31.241489953967694]
オリジナルCLUEアプローチを拡張して、$delta$-CLUEと呼ぶものを提供します。
代わりに、実行可能な CLUE の $itset$ を返します。複数の多様な入力は、潜時空間の元の入力の $delta$ ボール内にあります。
論文 参考訳(メタデータ) (2021-04-13T16:03:27Z) - Getting a CLUE: A Method for Explaining Uncertainty Estimates [30.367995696223726]
微分可能確率モデルからの不確実性推定を解釈する新しい手法を提案する。
提案手法は,データ多様体上に保持しながら,入力の変更方法を示す。
論文 参考訳(メタデータ) (2020-06-11T21:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。