論文の概要: Knowledge from Uncertainty in Evidential Deep Learning
- arxiv url: http://arxiv.org/abs/2310.12663v1
- Date: Thu, 19 Oct 2023 11:41:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 15:35:01.415789
- Title: Knowledge from Uncertainty in Evidential Deep Learning
- Title(参考訳): 情報深層学習における不確実性からの知識
- Authors: Cai Davies, Marc Roig Vilamala, Alun D. Preece, Federico Cerutti,
Lance M. Kaplan, Supriyo Chakraborty
- Abstract要約: 本研究は,Evidential Deep Learning(EDL)における不確実性から生じる明らかな信号を明らかにする。
EDLは、現在のテストサンプルに対する信頼性を提供するために設計された、不確実性を認識したディープラーニングアプローチのクラスの一例である。
- 参考スコア(独自算出の注目度): 10.751990848772028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work reveals an evidential signal that emerges from the uncertainty
value in Evidential Deep Learning (EDL). EDL is one example of a class of
uncertainty-aware deep learning approaches designed to provide confidence (or
epistemic uncertainty) about the current test sample. In particular for
computer vision and bidirectional encoder large language models, the
`evidential signal' arising from the Dirichlet strength in EDL can, in some
cases, discriminate between classes, which is particularly strong when using
large language models. We hypothesise that the KL regularisation term causes
EDL to couple aleatoric and epistemic uncertainty. In this paper, we
empirically investigate the correlations between misclassification and
evaluated uncertainty, and show that EDL's `evidential signal' is due to
misclassification bias. We critically evaluate EDL with other Dirichlet-based
approaches, namely Generative Evidential Neural Networks (EDL-GEN) and Prior
Networks, and show theoretically and empirically the differences between these
loss functions. We conclude that EDL's coupling of uncertainty arises from
these differences due to the use (or lack) of out-of-distribution samples
during training.
- Abstract(参考訳): 本研究は,Evidential Deep Learning (EDL) における不確実性から生じる明らかな信号を明らかにする。
EDLは、現在のテストサンプルに対する信頼(または疫学的な不確実性)を提供するために設計された、不確実性を認識したディープラーニングアプローチのクラスの一例である。
特にコンピュータビジョンや双方向エンコーダの大規模言語モデルにおいて、EDLのディリクレ強度から生じる「証拠信号」は、大きな言語モデルを使用する場合に特に強いクラスを識別することができる。
我々は,KL正則化という用語がEDLを2つの動脈硬化性およびてんかん性不確実性を引き起こすと仮定する。
本稿では,誤分類と不確実性評価の相関を実証的に検討し,EDLの「証拠信号」が誤分類バイアスに起因することを示す。
我々は,EDL-GEN(Generative Evidential Neural Networks)とPresideed Networksという,他のディリクレに基づくアプローチを用いてEDLを評価し,これらの損失関数の違いを理論的かつ経験的に示す。
edlの不確かさのカップリングは、トレーニング中の分散サンプルの使用(または欠如)による違いから生じると結論づける。
関連論文リスト
- Language Model Cascades: Token-level uncertainty and beyond [65.38515344964647]
言語モデル(LM)の最近の進歩により、複雑なNLPタスクの品質が大幅に向上した。
Cascadingは、より好ましいコスト品質のトレードオフを達成するためのシンプルな戦略を提供する。
トークンレベルの不確実性を学習後遅延ルールに組み込むことで,単純な集約戦略を著しく上回ることを示す。
論文 参考訳(メタデータ) (2024-04-15T21:02:48Z) - Fact-Checking the Output of Large Language Models via Token-Level
Uncertainty Quantification [119.38495860737929]
大型言語モデル(LLM)は幻覚、すなわちその出力に誤った主張を生じさせることで有名である。
本稿では,トークンレベルの不確実性定量化に基づくファクトチェックと幻覚検出パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-07T17:44:17Z) - Uncertainty Quantification for In-Context Learning of Large Language Models [52.891205009620364]
大規模言語モデル(LLM)の画期的な能力として、文脈内学習が登場している。
両タイプの不確かさを定量化するための新しい定式化法とそれに対応する推定法を提案する。
提案手法は、プラグイン・アンド・プレイ方式でコンテキスト内学習の予測を理解するための教師なしの方法を提供する。
論文 参考訳(メタデータ) (2024-02-15T18:46:24Z) - Improved Evidential Deep Learning via a Mixture of Dirichlet
Distributions [36.92148757066292]
本稿では,1つのニューラルネットワークモデルを用いて,予測分布上のメタ分布を学習する,明らかな深層学習(EDL)と呼ばれる最新の予測不確実性推定手法について検討する。
Bengsらによる最近の研究では、既存の方法の根本的な落とし穴が特定されている。
ディリクレ分布と変分推論による学習を混合してモデル化し,一貫した目標分布の学習を提案する。
論文 参考訳(メタデータ) (2024-02-09T03:23:39Z) - Quantifying Uncertainty in Natural Language Explanations of Large
Language Models [29.34960984639281]
大規模言語モデル (LLM) は、高スループット自然言語処理 (NLP) アプリケーションのための強力なツールとして、ますます使われている。
生成された説明の不確かさを定量化するために、$textitVerbalized Uncertainty$と$textitProbing Uncertainty$という2つの新しいメトリクスを提案します。
ベンチマークデータセットの実証分析により、言語化された不確実性は説明の信頼性の信頼できる見積りではないことが判明した。
論文 参考訳(メタデータ) (2023-11-06T21:14:40Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - On Causality in Domain Adaptation and Semi-Supervised Learning: an
Information-Theoretic Analysis [34.308646155192115]
我々は、mラベル付きソースデータとnラベルなしターゲットデータをトレーニングインスタンスとしてアクセスするUDA/SSL設定について検討する。
因果学習では、ソースとターゲットドメイン間のラベル付け分布が変化しない場合のみ、O(1/m)のレートでソースサンプルのサイズに余剰リスクが依存していることが示される。
反因果学習では、ラベルのないデータが典型的にはO(1/n)の速度でパフォーマンスを支配していることを示す。
論文 参考訳(メタデータ) (2022-05-10T03:18:48Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。