論文の概要: Human-Alignment and Calibration of Inference-Time Uncertainty in Large Language Models
- arxiv url: http://arxiv.org/abs/2508.08204v1
- Date: Mon, 11 Aug 2025 17:22:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.234142
- Title: Human-Alignment and Calibration of Inference-Time Uncertainty in Large Language Models
- Title(参考訳): 大規模言語モデルにおける推論時間不確かさのアライメントと校正
- Authors: Kyle Moore, Jesse Roberts, Daryl Watson,
- Abstract要約: 本研究では,人間のグループレベルの不確実性と従来のモデルキャリブレーションの両概念との密接な一致を判断するために,推論時不確実性尺度の収集を評価する。
その結果,ヒトの回答嗜好に一致していないにもかかわらず,人間の不確実性に強い対応を示す尺度が多数存在することが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There has been much recent interest in evaluating large language models for uncertainty calibration to facilitate model control and modulate user trust. Inference time uncertainty, which may provide a real-time signal to the model or external control modules, is particularly important for applying these concepts to improve LLM-user experience in practice. While many of the existing papers consider model calibration, comparatively little work has sought to evaluate how closely model uncertainty aligns to human uncertainty. In this work, we evaluate a collection of inference-time uncertainty measures, using both established metrics and novel variations, to determine how closely they align with both human group-level uncertainty and traditional notions of model calibration. We find that numerous measures show evidence of strong alignment to human uncertainty, even despite the lack of alignment to human answer preference. For those successful metrics, we find moderate to strong evidence of model calibration in terms of both correctness correlation and distributional analysis.
- Abstract(参考訳): モデル制御とユーザ信頼の調整を容易にするため,不確実性校正のための大規模言語モデル評価への関心が高まっている。
モデルや外部制御モジュールにリアルタイムな信号を提供する推論時間不確実性は、実際にLLMユーザエクスペリエンスを改善するためにこれらの概念を適用する上で特に重要である。
既存の論文の多くはモデルキャリブレーションについて検討しているが、モデルの不確実性が人間の不確実性とどの程度密接に一致しているかを評価する研究はほとんど行われていない。
本研究では,従来のモデルキャリブレーションの概念と人間のグループレベルの不確実性の両方とどの程度密接に一致しているかを決定するために,確立された指標と新しいバリエーションの両方を用いて,推論時不確実性尺度の集合を評価した。
その結果,ヒトの回答嗜好に一致していないにもかかわらず,人間の不確実性に強い対応を示す指標が多数存在することが判明した。
これらの結果から, 正当性相関と分布解析の両面から, モデル校正の適度から強い証拠が得られた。
関連論文リスト
- On Equivariant Model Selection through the Lens of Uncertainty [49.137341292207]
等変モデルは、予測性能を改善するために対称性に関する事前の知識を活用するが、不特定なアーキテクチャ上の制約がそれを傷つける可能性がある。
我々は、頻繁な(コンフォーマル予測による)、ベイジアン(限界確率による)、およびキャリブレーションに基づく評価による誤りに基づく評価の比較を行った。
不確実性指標は一般的に予測性能と一致するが,ベイズ模型の証拠は矛盾する。
論文 参考訳(メタデータ) (2025-06-23T13:35:06Z) - Investigating Human-Aligned Large Language Model Uncertainty [0.0]
我々は,人間のグループレベルの不確実性と相関する指標を特定するために,様々な不確実性対策について検討する。
ベイズ測度とエントロピー測度の変化,トップkエントロピーは,モデルサイズの関数として人間の行動と一致する傾向にある。
モデルサイズと人相似性の強い尺度が減少するが、複数の線形回帰により、複数の不確実性尺度を組み合わせることで、サイズ依存性の低減と同等な人相整合が得られることがわかった。
論文 参考訳(メタデータ) (2025-03-16T14:45:43Z) - Mind the Confidence Gap: Overconfidence, Calibration, and Distractor Effects in Large Language Models [0.6091702876917281]
大規模言語モデル(LLM)は、自然言語処理において顕著な熟練度を示す。
予測された信頼と真の正しさの過度なミスサライメントは、重要な意思決定アプリケーションに重大なリスクをもたらす。
9つのLCMと3つの質問応答データセットにわたるLCMの校正に関する包括的分析を行った。
論文 参考訳(メタデータ) (2025-02-16T07:46:09Z) - The Reliability Paradox: Exploring How Shortcut Learning Undermines Language Model Calibration [5.616884466478886]
プレトレーニング言語モデル(PLM)は、自然言語処理の分野で大きなパフォーマンス向上を実現している。
近年の研究では、PLMは誤校正に悩まされており、これらのモデルによる信頼度推定の精度の欠如が示唆されている。
本稿では,低校正誤差が言語モデルの信頼性決定ルールを意味するか否かを考察する。
論文 参考訳(メタデータ) (2024-12-17T08:04:28Z) - Large Language Models Must Be Taught to Know What They Don't Know [97.90008709512921]
正解と誤解の小さなデータセットを微調整すると、高い一般化と計算オーバーヘッドの少ない不確実性推定が得られることを示す。
また,確実な不確実性推定を可能にする機構についても検討し,多くのモデルを汎用的不確実性推定器として利用することができることを示した。
論文 参考訳(メタデータ) (2024-06-12T16:41:31Z) - Calibrating Large Language Models with Sample Consistency [76.23956851098598]
本稿では,複数サンプルモデル生成系の分布から信頼度を導出する可能性について,一貫性の3つの尺度を用いて検討する。
その結果、一貫性に基づくキャリブレーション手法は、既存のポストホック手法よりも優れていることがわかった。
種々のLMの特性に合わせて,キャリブレーションに適した整合性指標を選択するための実用的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-02-21T16:15:20Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - Toward Reliable Human Pose Forecasting with Uncertainty [51.628234388046195]
我々は、複数のモデルを含む人間のポーズ予測のためのオープンソースのライブラリを開発し、複数のデータセットをサポートする。
我々は、パフォーマンスを高め、より良い信頼をもたらすために、問題の2つの不確実性を考案する。
論文 参考訳(メタデータ) (2023-04-13T17:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。