論文の概要: Distance Is All You Need: Radial Dispersion for Uncertainty Estimation in Large Language Models
- arxiv url: http://arxiv.org/abs/2512.04351v1
- Date: Thu, 04 Dec 2025 00:53:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:45.939823
- Title: Distance Is All You Need: Radial Dispersion for Uncertainty Estimation in Large Language Models
- Title(参考訳): 大言語モデルにおける不確実性推定のためのラジアル分散
- Authors: Manh Nguyen, Sunil Gupta, Hung Le,
- Abstract要約: 本稿では,bfRadial Dispersion Score (RDS)を紹介した。
RDSは自然にサンプルごとのスコアリングに拡張され、ベスト・オブ・N$選択や信頼に基づくフィルタリングなどのアプリケーションを可能にする。
- 参考スコア(独自算出の注目度): 13.41454380481593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting when large language models (LLMs) are uncertain is critical for building reliable systems, yet existing methods are overly complicated, relying on brittle semantic clustering or internal states. We introduce \textbf{Radial Dispersion Score (RDS)}, a simple, parameter-free, fully model-agnostic uncertainty metric that measures the radial dispersion of sampled generations in embedding space. A lightweight probability-weighted variant further incorporates the model's own token probabilities when available, outperforming different nine strong baselines. Moroever, RDS naturally extends to per-sample scoring, enabling applications such as best-of-$N$ selection and confidence-based filtering. Across four challenging free-form QA datasets and multiple LLMs, our metrics achieve state-of-the-art hallucination detection and answer selection performance, while remaining robust and scalable with respect to sample size and embedding choice.
- Abstract(参考訳): 大規模言語モデル(LLM)が不確実である場合の検出は、信頼性の高いシステムを構築する上で重要であるが、既存のメソッドは非常に複雑であり、脆弱なセマンティッククラスタリングや内部状態に依存している。
本稿では, 単純でパラメータフリーで, 完全にモデルに依存しない不確実性尺度である \textbf{Radial Dispersion Score (RDS) を紹介する。
軽量な確率重み付き変種は、利用可能なときにモデル独自のトークン確率を取り入れ、異なる9つの強いベースラインよりも優れている。
にもかかわらず、RDSは自然にサンプルごとのスコアリングに拡張し、ベスト・オブ・N$選択や信頼に基づくフィルタリングなどのアプリケーションを可能にする。
4つの挑戦的な自由形式QAデータセットと複数のLLMに対して、我々のメトリクスは、サンプルサイズと埋め込み選択に関して堅牢でスケーラブルでありながら、最先端の幻覚検出と解答選択性能を実現している。
関連論文リスト
- Efficient semantic uncertainty quantification in language models via diversity-steered sampling [46.23327887393273]
本稿では,デコード中に意味的に冗長な出力を回避できるダイバーシティステアリング・サンプリング手法を提案する。
主要なアイデアは、モデルの提案分布に連続的な意味-類似性ペナルティを注入することである。
モジュラーであり、ベースLSMへの勾配アクセスを必要としないため、このフレームワークは不確実性評価のためのドロップインエンハンスメントとして機能することを約束している。
論文 参考訳(メタデータ) (2025-10-24T10:06:21Z) - Model selection for stochastic dynamics: a parsimonious and principled approach [0.0]
この論文は、ノイズや離散時系列から不完全微分方程式(SDE)と偏微分方程式(SPDE)の発見に焦点を当てている。
大きな課題は、候補モデルの膨大なライブラリから可能な限り単純な正しいモデルを選択することである。
PASTIS(Parsimonious Inference)は、極値理論から派生した新しい情報基準である。
論文 参考訳(メタデータ) (2025-07-05T18:15:26Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Uncertainty-aware Language Modeling for Selective Question Answering [107.47864420630923]
本稿では,不確実性を考慮したLLMを生成するLLM変換手法を提案する。
我々のアプローチはモデルとデータに依存しず、計算効率が高く、外部モデルやシステムに依存しない。
論文 参考訳(メタデータ) (2023-11-26T22:47:54Z) - The Decaying Missing-at-Random Framework: Model Doubly Robust Causal Inference with Partially Labeled Data [8.916614661563893]
因果推論を両立させるために,MARフレームワークの欠落と関連するアプローチを導入する。
これはラベル付け機構における選択バイアスとラベル付きグループとラベルなしグループの極端な不均衡に同時に対処する。
因果関係の堅牢性を確保するため,平均治療効果に対するバイアス低減SS推定器を提案する。
論文 参考訳(メタデータ) (2023-05-22T07:37:12Z) - Tailoring Language Generation Models under Total Variation Distance [55.89964205594829]
ニューラルネットワーク生成の標準パラダイムは、最適化方法として最大推定(MLE)を採用する。
言語生成に適用するための実践的境界を開発する。
本稿では,TVD推定のトレードオフのバランスをとるためのTaiLr の目標について紹介する。
論文 参考訳(メタデータ) (2023-02-26T16:32:52Z) - Learning Multivariate CDFs and Copulas using Tensor Factorization [39.24470798045442]
データの多変量分布を学習することは、統計学と機械学習における中核的な課題である。
本研究では,多変量累積分布関数(CDF)を学習し,混合確率変数を扱えるようにすることを目的とする。
混合確率変数の合同CDFの任意のグリッドサンプリング版は、単純ベイズモデルとして普遍表現を許容することを示す。
提案モデルの性能を,回帰,サンプリング,データ計算を含むいくつかの合成および実データおよびアプリケーションで実証する。
論文 参考訳(メタデータ) (2022-10-13T16:18:46Z) - SUOD: Accelerating Large-Scale Unsupervised Heterogeneous Outlier
Detection [63.253850875265115]
外乱検出(OD)は、一般的なサンプルから異常物体を識別するための機械学習(ML)タスクである。
そこで我々は,SUODと呼ばれるモジュール型加速度システムを提案する。
論文 参考訳(メタデータ) (2020-03-11T00:22:50Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。