論文の概要: Pretrained LLMs Learn Multiple Types of Uncertainty
- arxiv url: http://arxiv.org/abs/2505.21218v1
- Date: Tue, 27 May 2025 14:06:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.701121
- Title: Pretrained LLMs Learn Multiple Types of Uncertainty
- Title(参考訳): プレトレーニングLDMは複数の不確かさを学習する
- Authors: Roi Cohen, Omri Fahn, Gerard de Melo,
- Abstract要約: 大規模言語モデルは現実世界の知識を捉えることで知られており、下流の多くのタスクに精通することができる。
本研究では,LLMが不確実性をどのように捉えているのかを,それに対して明示的に訓練されることなく検討する。
モデルの潜在空間における線形概念としての不確実性を考えると、事前訓練後にのみ捕捉されることが示される。
- 参考スコア(独自算出の注目度): 23.807232455808613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models are known to capture real-world knowledge, allowing them to excel in many downstream tasks. Despite recent advances, these models are still prone to what are commonly known as hallucinations, causing them to emit unwanted and factually incorrect text. In this work, we study how well LLMs capture uncertainty, without explicitly being trained for that. We show that, if considering uncertainty as a linear concept in the model's latent space, it might indeed be captured, even after only pretraining. We further show that, though unintuitive, LLMs appear to capture several different types of uncertainty, each of which can be useful to predict the correctness for a specific task or benchmark. Furthermore, we provide in-depth results such as demonstrating a correlation between our correction prediction and the model's ability to abstain from misinformation using words, and the lack of impact of model scaling for capturing uncertainty. Finally, we claim that unifying the uncertainty types as a single one using instruction-tuning or [IDK]-token tuning is helpful for the model in terms of correctness prediction.
- Abstract(参考訳): 大規模言語モデルは現実世界の知識を捉えることで知られており、下流の多くのタスクに精通することができる。
近年の進歩にもかかわらず、これらのモデルはいまだに幻覚と呼ばれるものになりがちである。
本研究では,LLMが不確実性をどのように捉えているのかを,それに対して明示的に訓練されることなく検討する。
モデルの潜在空間における線形概念としての不確実性を考えると、事前訓練後であっても、実際に捕捉される可能性があることを示す。
さらに、直感的ではないが、LLMはいくつかの異なる種類の不確実性を捉えており、それぞれが特定のタスクやベンチマークの正確性を予測するのに有用であることを示す。
さらに,単語を用いた誤情報の排除能力と,不確実性を捉えるためのモデルスケーリングの影響の欠如との相関関係を示す。
最後に、インストラクションチューニングや[IDK]トケンチューニングを用いて、不確実性型を単一として統一することは、正確性予測の観点からモデルに有用であると主張する。
関連論文リスト
- Are vision language models robust to uncertain inputs? [5.249651874118556]
より新しい視覚言語モデルでは、従来のモデルに比べて頑健性が向上したが、それでも厳密な指示に従う傾向にあることを示す。
ImageNetのような自然なイメージでは、パイプラインの変更なしにこの制限を克服することができる。
モデルの内部不確実性を明らかにするために,キャプションの多様性に基づく新しいメカニズムを提案する。
論文 参考訳(メタデータ) (2025-05-17T03:16:49Z) - Uncertainty Distillation: Teaching Language Models to Express Semantic Confidence [16.311538811237536]
大規模言語モデル (LLM) は、事実質問に対する回答にますます使われている。
これらの不確実性の言葉化表現が意味を持つためには、表現された信頼度レベルでエラー率を反映すべきである。
そこで本研究では,LLMにセマンティック信頼度を校正する簡単な方法である不確かさ蒸留法を提案する。
論文 参考訳(メタデータ) (2025-03-18T21:29:29Z) - I Don't Know: Explicit Modeling of Uncertainty with an [IDK] Token [23.02504739114444]
大きな言語モデルは幻覚を起こす傾向があり、望ましくない事実的誤りのテキストを出力する。
本稿では,幻覚対策に用いる新しい校正法を提案する。
我々の方法で訓練されたモデルは、以前にミスを犯すような場所で不確実性を表現できることがわかった。
論文 参考訳(メタデータ) (2024-12-09T17:13:20Z) - Predicting Emergent Capabilities by Finetuning [98.9684114851891]
微調整された言語モデルでは,出現頻度の低いモデルに展開するスケーリングのポイントをシフトできることがわかった。
提案手法は4つの標準NLPベンチマークを用いて検証する。
いくつかのケースでは、最大4倍の計算でトレーニングされたモデルが出現したかどうかを正確に予測できる。
論文 参考訳(メタデータ) (2024-11-25T01:48:09Z) - Large Language Models Must Be Taught to Know What They Don't Know [97.90008709512921]
正解と誤解の小さなデータセットを微調整すると、高い一般化と計算オーバーヘッドの少ない不確実性推定が得られることを示す。
また,確実な不確実性推定を可能にする機構についても検討し,多くのモデルを汎用的不確実性推定器として利用することができることを示した。
論文 参考訳(メタデータ) (2024-06-12T16:41:31Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Fact-Checking the Output of Large Language Models via Token-Level Uncertainty Quantification [116.77055746066375]
大型言語モデル(LLM)は幻覚、すなわちその出力に誤った主張を生じさせることで有名である。
本稿では,トークンレベルの不確実性定量化に基づくファクトチェックと幻覚検出パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-07T17:44:17Z) - Distinguishing the Knowable from the Unknowable with Language Models [15.471748481627143]
地中真理確率の欠如において、与えられた不確実性を解き放つために、より大きなモデルが地中真理の代用として現れるような設定を探索する。
凍結, 事前訓練されたモデルの埋め込みを訓練した小さな線形プローブが, トークンレベルでより大きなモデルがより自信を持つようになる時期を正確に予測することを示した。
我々は,同じタスクにおいて非自明な精度を実現する,完全に教師なしの手法を提案する。
論文 参考訳(メタデータ) (2024-02-05T22:22:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。