論文の概要: Directional Concentration Uncertainty: A representational approach to uncertainty quantification for generative models
- arxiv url: http://arxiv.org/abs/2602.13264v1
- Date: Wed, 04 Feb 2026 01:49:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.598358
- Title: Directional Concentration Uncertainty: A representational approach to uncertainty quantification for generative models
- Title(参考訳): 方向集中不確実性:生成モデルにおける不確実性定量化への表現論的アプローチ
- Authors: Souradeep Chattopadhyay, Brendan Kennedy, Sai Munikoti, Soumik Sarkar, Karl Pazdernik,
- Abstract要約: 高い柔軟性とアプローチ,あるいは先行手法の性能を超越した,新しい量子化フレームワーク(UQ)を提案する。
我々は,von Mises-Fisher(vMF)分布に基づく埋め込みの濃度を定量化するための新しい統計手法であるDCUを紹介する。
- 参考スコア(独自算出の注目度): 6.652748748858091
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the critical task of making generative models trustworthy and robust, methods for Uncertainty Quantification (UQ) have begun to show encouraging potential. However, many of these methods rely on rigid heuristics that fail to generalize across tasks and modalities. Here, we propose a novel framework for UQ that is highly flexible and approaches or surpasses the performance of prior heuristic methods. We introduce Directional Concentration Uncertainty (DCU), a novel statistical procedure for quantifying the concentration of embeddings based on the von Mises-Fisher (vMF) distribution. Our method captures uncertainty by measuring the geometric dispersion of multiple generated outputs from a language model using continuous embeddings of the generated outputs without any task specific heuristics. In our experiments, we show that DCU matches or exceeds calibration levels of prior works like semantic entropy (Kuhn et al., 2023) and also generalizes well to more complex tasks in multi-modal domains. We present a framework for the wider potential of DCU and its implications for integration into UQ for multi-modal and agentic frameworks.
- Abstract(参考訳): 生成モデルに信頼性と堅牢性を持たせるための重要な課題として,不確実性定量化法(UQ)が注目され始めている。
しかし、これらの手法の多くは、タスクやモダリティをまたいだ一般化に失敗する厳密なヒューリスティックに依存している。
本稿では,従来のヒューリスティック手法の性能を超越した,柔軟なUQのための新しいフレームワークを提案する。
我々は,von Mises-Fisher(vMF)分布に基づく埋め込みの濃度を定量化するための新しい統計手法であるDCUを紹介する。
本手法は,タスク固有のヒューリスティクスを使わずに,生成した出力の連続埋め込みを用いて言語モデルから生成した複数の出力の幾何学的分散を測定することによって不確実性を捉える。
我々の実験では、DCUは意味エントロピー(Kuhn et al , 2023)のような先行研究のキャリブレーションレベルと一致し、また、マルチモーダル領域におけるより複雑なタスクをうまく一般化することを示した。
マルチモーダル・エージェント・フレームワークにおけるDCUの幅広い可能性とそのUQへの統合に関するフレームワークを提案する。
関連論文リスト
- Flow Density Control: Generative Optimization Beyond Entropy-Regularized Fine-Tuning [59.11663802446183]
フローおよび拡散生成モデルは、事前情報を保持しながらタスク固有の目的を最適化するために適応することができる。
本研究では,フロー密度制御(FDC)を導入し,複雑な問題をより単純な微調整タスクの特定のシーケンスに還元する。
我々は,近年のミラーフローの理解を活用して,現実的な仮定の下で提案されたスキームの収束保証を導出する。
論文 参考訳(メタデータ) (2025-11-27T17:19:01Z) - Inv-Entropy: A Fully Probabilistic Framework for Uncertainty Quantification in Language Models [12.743668975795144]
大規模言語モデル(LLM)は自然言語処理を変換しているが、信頼性の高いデプロイメントには有効な不確実性定量化(UQ)が必要である。
既存のUQ手法はしばしば確率論的解釈を欠いている。
本稿では, 与えられた出力に条件付き入力空間の多様性を評価することによって不確実性を定量的に評価する, 逆モデルに基づく完全確率的フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-11T13:02:17Z) - Ideas in Inference-time Scaling can Benefit Generative Pre-training Algorithms [35.74919627230777]
推論ファーストの視点は、新しい生成事前学習アルゴリズムに刺激を与えることができると論じる。
本研究では,拡散モデルの予測過程における目標修正による制限への対処が,安定な単一段階アルゴリズムを実現する方法を示す。
論文 参考訳(メタデータ) (2025-03-10T10:27:30Z) - Uncertainty Quantification for LLMs through Minimum Bayes Risk: Bridging Confidence and Consistency [66.96286531087549]
大規模言語モデル(LLM)のための不確実性定量化(UQ)手法は、様々なアプローチを含んでいる。
本稿では,モデル信頼度と出力整合性を統合する新しい手法を提案する。
我々は,質問応答,抽象要約,機械翻訳など,様々なタスクに対するアプローチを評価する。
論文 参考訳(メタデータ) (2025-02-07T14:30:12Z) - Towards Modality Generalization: A Benchmark and Prospective Analysis [68.20973671493203]
本稿では,モダリティ・ジェネリゼーション(MG)について述べる。
マルチモーダルアルゴリズムを特徴とする包括的ベンチマークを提案し,一般化に着目した既存手法を適用した。
私たちの研究は、堅牢で適応可能なマルチモーダルモデルを進化させる基盤を提供し、現実的なシナリオで目に見えないモダリティを扱えるようにします。
論文 参考訳(メタデータ) (2024-12-24T08:38:35Z) - A Dynamical System View of Langevin-Based Non-Convex Sampling [44.002384711340966]
非サンプリングは機械学習における重要な課題であり、ディープラーニングにおける非レート最適化の中心であり、その重要性を近似する。
既存の保証は通常、より望ましい最終段階の反復よりも平均距離のみを保持する。
我々は、理論システムからいくつかのツールを活用することにより、上記の問題を解消する新しいフレームワークを開発する。
論文 参考訳(メタデータ) (2022-10-25T09:43:36Z) - Trustworthy Multimodal Regression with Mixture of Normal-inverse Gamma
Distributions [91.63716984911278]
このアルゴリズムは、異なるモードの適応的統合の原理における不確かさを効率的に推定し、信頼できる回帰結果を生成する。
実世界のデータと実世界のデータの両方に対する実験結果から,多モード回帰タスクにおける本手法の有効性と信頼性が示された。
論文 参考訳(メタデータ) (2021-11-11T14:28:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。