論文の概要: Diverse, Global and Amortised Counterfactual Explanations for
Uncertainty Estimates
- arxiv url: http://arxiv.org/abs/2112.02646v2
- Date: Tue, 7 Dec 2021 10:38:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 12:25:33.562727
- Title: Diverse, Global and Amortised Counterfactual Explanations for
Uncertainty Estimates
- Title(参考訳): 不確実性評価のための多変量・グローバル・アモータイズド対策
- Authors: Dan Ley, Umang Bhatt, Adrian Weller
- Abstract要約: このような集合の多様性を研究し、多くの CLUE が冗長であることを示す。
そこで我々は,不確実な入力の特定のグループに対する償却写像を学習する,GLobal AMortized CLUE (GLAM-CLUE) を提案する。
実験の結果,$delta$-CLUE,$nabla$-CLUE,およびGLAM-CLUEはすべて,CLUEの欠点に対処し,不確実性推定を実践者に有益に説明できることを示した。
- 参考スコア(独自算出の注目度): 31.241489953967694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To interpret uncertainty estimates from differentiable probabilistic models,
recent work has proposed generating a single Counterfactual Latent Uncertainty
Explanation (CLUE) for a given data point where the model is uncertain,
identifying a single, on-manifold change to the input such that the model
becomes more certain in its prediction. We broaden the exploration to examine
$\delta$-CLUE, the set of potential CLUEs within a $\delta$ ball of the
original input in latent space. We study the diversity of such sets and find
that many CLUEs are redundant; as such, we propose DIVerse CLUE
($\nabla$-CLUE), a set of CLUEs which each propose a distinct explanation as to
how one can decrease the uncertainty associated with an input. We then further
propose GLobal AMortised CLUE (GLAM-CLUE), a distinct and novel method which
learns amortised mappings on specific groups of uncertain inputs, taking them
and efficiently transforming them in a single function call into inputs for
which a model will be certain. Our experiments show that $\delta$-CLUE,
$\nabla$-CLUE, and GLAM-CLUE all address shortcomings of CLUE and provide
beneficial explanations of uncertainty estimates to practitioners.
- Abstract(参考訳): 微分確率モデルからの不確実性推定を解釈するために、最近の研究は、モデルが不確実である与えられたデータポイントに対して、モデルが予測においてより確実になるように、入力に対する1つのオンマンフォールドな変化を識別する単一の非確実性説明(CLUE)を生成することを提案した。
我々は、潜在空間における元の入力の$\delta$ボール内の潜在的な手がかりのセットである$\delta$-clueを調べるために探索を広げる。
このような集合の多様性を研究し,多くの手掛かりが冗長であることを見いだす。そのために我々は,入力に関する不確実性をいかに減少させるか,それぞれが個別に説明できる手掛かりである多様手掛かり(\nabla$-clue)を提案する。
さらに,GLobal AMortized CLUE (GLAM-CLUE) を提案する。これは,不確実な入力の特定のグループに対する償却写像を学習し,それらを単一の関数呼び出しで効率的に変換し,モデルが確実な入力に変換する方法である。
実験の結果, CLUE の欠点は $\delta$-CLUE, $\nabla$-CLUE および GLAM-CLUE がすべて解決し, 実践者に不確実性推定の有益な説明を提供することがわかった。
関連論文リスト
- CLUE: Concept-Level Uncertainty Estimation for Large Language Models [49.92690111618016]
大規模言語モデル(LLM)のための概念レベル不確実性推定のための新しいフレームワークを提案する。
LLMを利用して、出力シーケンスを概念レベルの表現に変換し、シーケンスを個別の概念に分解し、各概念の不確かさを個別に測定する。
我々は,文レベルの不確実性と比較して,CLUEがより解釈可能な不確実性推定結果を提供できることを示す実験を行った。
論文 参考訳(メタデータ) (2024-09-04T18:27:12Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Language Model Cascades: Token-level uncertainty and beyond [65.38515344964647]
言語モデル(LM)の最近の進歩により、複雑なNLPタスクの品質が大幅に向上した。
Cascadingは、より好ましいコスト品質のトレードオフを達成するためのシンプルな戦略を提供する。
トークンレベルの不確実性を学習後遅延ルールに組み込むことで,単純な集約戦略を著しく上回ることを示す。
論文 参考訳(メタデータ) (2024-04-15T21:02:48Z) - Invariant Causal Prediction with Local Models [52.161513027831646]
観測データから対象変数の因果親を特定するタスクについて検討する。
L-ICP(textbfL$ocalized $textbfI$nvariant $textbfCa$usal $textbfP$rediction)と呼ばれる実用的手法を導入する。
論文 参考訳(メタデータ) (2024-01-10T15:34:42Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Understanding Contrastive Learning via Distributionally Robust
Optimization [29.202594242468678]
本研究は,類似のセマンティクス(ラベルなど)を負のサンプルとして含むサンプリングバイアスに対するコントラッシブラーニング(CL)の固有の耐性を明らかにする。
本研究は,分散ロバスト最適化 (DRO) のレンズを用いてCLを解析することにより,この研究ギャップを橋渡しし,いくつかの重要な知見を得る。
また, CLの過保守性や異常値に対する感受性などの潜在的な欠点を同定し, これらの問題を緩和するための新しいAdjusted InfoNCE損失(ADNCE)を導入する。
論文 参考訳(メタデータ) (2023-10-17T07:32:59Z) - Flexible and Robust Counterfactual Explanations with Minimal Satisfiable
Perturbations [56.941276017696076]
我々は、最小満足度摂動(CEMSP)を用いた対実的説明法という概念的に単純だが効果的な解を提案する。
CEMSPは、意味論的に意味のある正常範囲の助けを借りて、異常な特徴の値を変更することを制限している。
既存の手法と比較して、我々は合成データセットと実世界のデータセットの両方で包括的な実験を行い、柔軟性を維持しつつ、より堅牢な説明を提供することを示した。
論文 参考訳(メタデータ) (2023-09-09T04:05:56Z) - Environment Invariant Linear Least Squares [18.387614531869826]
本稿では,複数の実験環境からのデータを収集する多環境線形回帰モデルについて考察する。
線形最小二乗回帰のマルチ環境バージョンである、新しい環境不変線形最小二乗関数(EILLS)を構築する。
論文 参考訳(メタデータ) (2023-03-06T13:10:54Z) - Open-Set Likelihood Maximization for Few-Shot Learning [36.97433312193586]
我々はFew-Shot Open-Set Recognition (FSOSR) 問題、すなわちいくつかのラベル付きサンプルしか持たないクラスのインスタンスを分類する問題に取り組む。
提案手法では,推論時に非競合なクエリインスタンスを利用する。
既存のトランスダクティブ手法はオープンセットのシナリオではうまく動作しないという観測により,最大極大原理の一般化を提案する。
論文 参考訳(メタデータ) (2023-01-20T01:56:19Z) - $\delta$-CLUE: Diverse Sets of Explanations for Uncertainty Estimates [31.241489953967694]
オリジナルCLUEアプローチを拡張して、$delta$-CLUEと呼ぶものを提供します。
代わりに、実行可能な CLUE の $itset$ を返します。複数の多様な入力は、潜時空間の元の入力の $delta$ ボール内にあります。
論文 参考訳(メタデータ) (2021-04-13T16:03:27Z) - Getting a CLUE: A Method for Explaining Uncertainty Estimates [30.367995696223726]
微分可能確率モデルからの不確実性推定を解釈する新しい手法を提案する。
提案手法は,データ多様体上に保持しながら,入力の変更方法を示す。
論文 参考訳(メタデータ) (2020-06-11T21:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。