論文の概要: Epistemic Uncertainty Quantification for Pre-trained VLMs via Riemannian Flow Matching
- arxiv url: http://arxiv.org/abs/2601.21662v1
- Date: Thu, 29 Jan 2026 12:58:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.826694
- Title: Epistemic Uncertainty Quantification for Pre-trained VLMs via Riemannian Flow Matching
- Title(参考訳): リーマン流マッチングによる前訓練VLMの疫学不確かさ定量化
- Authors: Li Ju, Mayank Nautiyal, Andreas Hellander, Ekta Vats, Prashant Singh,
- Abstract要約: 視覚言語モデル(VLM)は本質的に決定論的であり、不確実性を定量化する固有のメカニズムが欠如している。
我々は,低密度領域がモデル無知を意味するてんかん不確実性の指標として,埋め込みの負の対数密度を理論的に動機付けている。
我々は,REPVLMが不確実性と予測誤差のほぼ完全な相関を達成し,既存のベースラインを著しく上回ることを示す。
- 参考スコア(独自算出の注目度): 3.0708725114491293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision-Language Models (VLMs) are typically deterministic in nature and lack intrinsic mechanisms to quantify epistemic uncertainty, which reflects the model's lack of knowledge or ignorance of its own representations. We theoretically motivate negative log-density of an embedding as a proxy for the epistemic uncertainty, where low-density regions signify model ignorance. The proposed method REPVLM computes the probability density on the hyperspherical manifold of the VLM embeddings using Riemannian Flow Matching. We empirically demonstrate that REPVLM achieves near-perfect correlation between uncertainty and prediction error, significantly outperforming existing baselines. Beyond classification, we also demonstrate that the model also provides a scalable metric for out-of-distribution detection and automated data curation.
- Abstract(参考訳): VLM(Vision-Language Models)は、本質的に決定論的であり、認識の不確実性を定量化する固有のメカニズムが欠如している。
我々は,低密度領域がモデル無知を意味するてんかん不確実性の指標として,埋め込みの負の対数密度を理論的に動機付けている。
提案手法は, リーマンフローマッチングを用いて, VLM埋め込みの超球面多様体上の確率密度を計算する。
我々は,REPVLMが不確実性と予測誤差のほぼ完全な相関を達成し,既存のベースラインを著しく上回ることを示す。
分類以外にも、このモデルがアウト・オブ・ディストリビューションの検出と自動データキュレーションのためのスケーラブルなメトリックも提供することを実証しています。
関連論文リスト
- The Illusion of Certainty: Uncertainty quantification for LLMs fails under ambiguity [48.899855816199484]
そこで本研究では,第1の曖昧な質問応答(QA)データセットであるMAQA*とAmbigQA*を紹介する。
予測分布とアンサンブルに基づく推定器は、あいまいさの下では基本的に限定的であることを示す。
論文 参考訳(メタデータ) (2025-11-06T14:46:35Z) - Why Machine Learning Models Fail to Fully Capture Epistemic Uncertainty [3.4970971805884474]
我々は、機械学習モデルにおいて、よりきめ細かな疫学的不確実性源の分類を利用する。
以上の結果から,高モデル偏見は誤認を招きかねない不確実性の推定に繋がる可能性が示唆された。
一般的な2階不確実性手法は、バイアスによって引き起こされた誤差をアレータリック推定に体系的に曖昧にする。
論文 参考訳(メタデータ) (2025-05-29T14:50:46Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Kernel Language Entropy: Fine-grained Uncertainty Quantification for LLMs from Semantic Similarities [79.9629927171974]
大規模言語モデル(LLM)の不確実性は、安全性と信頼性が重要であるアプリケーションには不可欠である。
ホワイトボックスとブラックボックス LLM における不確実性評価手法である Kernel Language Entropy (KLE) を提案する。
論文 参考訳(メタデータ) (2024-05-30T12:42:05Z) - Probabilistic Contrastive Learning with Explicit Concentration on the Hypersphere [3.572499139455308]
本稿では,球面空間に表現を埋め込むことにより,不確実性を比較学習に取り入れる新たな視点を提案する。
我々は、濃度パラメータであるカッパを直接解釈可能な尺度として利用し、不確実性を明示的に定量化する。
論文 参考訳(メタデータ) (2024-05-26T07:08:13Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。