論文の概要: Embedding Trust: Semantic Isotropy Predicts Nonfactuality in Long-Form Text Generation
- arxiv url: http://arxiv.org/abs/2510.21891v1
- Date: Fri, 24 Oct 2025 03:24:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.64124
- Title: Embedding Trust: Semantic Isotropy Predicts Nonfactuality in Long-Form Text Generation
- Title(参考訳): 埋め込み信頼:長期テキスト生成における意味的等方性予測
- Authors: Dhrupad Bhardwaj, Julia Kempe, Tim G. J. Rudner,
- Abstract要約: 意味的等方性(semantic isotropy)は、単位球上に正規化されたテキスト埋め込みをまたいだ均一性の度合いである。
単位球面上の埋め込みの角分散として,これらの応答のセマンティックな等方性レベルを推定する。
高いセマンティックなアイソトロピー、すなわち大きな埋め込み分散は、標本間の事実整合性を確実に低下させる。
- 参考スコア(独自算出の注目度): 25.48843962368704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To deploy large language models (LLMs) in high-stakes application domains that require substantively accurate responses to open-ended prompts, we need reliable, computationally inexpensive methods that assess the trustworthiness of long-form responses generated by LLMs. However, existing approaches often rely on claim-by-claim fact-checking, which is computationally expensive and brittle in long-form responses to open-ended prompts. In this work, we introduce semantic isotropy -- the degree of uniformity across normalized text embeddings on the unit sphere -- and use it to assess the trustworthiness of long-form responses generated by LLMs. To do so, we generate several long-form responses, embed them, and estimate the level of semantic isotropy of these responses as the angular dispersion of the embeddings on the unit sphere. We find that higher semantic isotropy -- that is, greater embedding dispersion -- reliably signals lower factual consistency across samples. Our approach requires no labeled data, no fine-tuning, and no hyperparameter selection, and can be used with open- or closed-weight embedding models. Across multiple domains, our method consistently outperforms existing approaches in predicting nonfactuality in long-form responses using only a handful of samples -- offering a practical, low-cost approach for integrating trust assessment into real-world LLM workflows.
- Abstract(参考訳): 大規模言語モデル (LLM) をオープンエンドプロンプトに対する即時的正確な応答を必要とするアプリケーション領域に展開するには, LLM が生成する長文応答の信頼性を評価する信頼性が高く, 計算コストの低い手法が必要である。
しかし、既存のアプローチはしばしばクレーム・バイ・クレーム・バイ・クレーム・チェックに依存しており、これは計算的に高価であり、オープンなプロンプトに対する長文の応答が不安定である。
本研究では,LLMが生成する長文応答の信頼性を評価するためにセマンティックなアイソトロピーを導入する。
そのために,複数の長文応答を生成し,それらを埋め込み,これらの応答の意味論的等方性レベルを単位球面上の埋め込みの角分散として推定する。
高いセマンティックなアイソトロピー、すなわち大きな埋め込み分散は、標本間の事実整合性を確実に低下させる。
提案手法ではラベル付きデータや微調整やハイパーパラメータの選択が不要で,オープンあるいはクローズドウェイトな埋め込みモデルで使用することができる。
複数のドメインにわたって、我々の方法は、少数のサンプルを使用して、ロングフォームレスポンスにおける非実効性を予測する既存のアプローチを一貫して上回り、実際のLLMワークフローに信頼評価を統合するための実用的で低コストなアプローチを提供する。
関連論文リスト
- Reinforcement Learning for Better Verbalized Confidence in Long-Form Generation [27.811765400370838]
本稿では,Long-form Verbalized Confidence (Long-form Verbalized Confidence) を提案する。
具体的には、強化学習(RL)を用いてLLMを訓練し、各生成された文に数値信頼度スコアを付加する。
実験の結果,RL学習モデルによりキャリブレーションの精度が向上し,領域全体にわたって強固に一般化できることがわかった。
論文 参考訳(メタデータ) (2025-05-29T18:05:20Z) - Uncertainty Quantification for LLM-Based Survey Simulations [9.303339416902995]
本研究では,大規模言語モデル(LLM)を用いて質問に対する人間の反応をシミュレートする。
提案手法は,不完全なLLMシミュレーション応答を集団パラメータの信頼セットに変換する。
重要な革新は、シミュレーションされたレスポンスの最適な数を決定することである。
論文 参考訳(メタデータ) (2025-02-25T02:07:29Z) - Variability Need Not Imply Error: The Case of Adequate but Semantically Distinct Responses [7.581259361859477]
不確実性定量化ツールは、モデルが不確実である場合の応答を拒否するために使用できます。
我々は、モデルがAdequate Responses (PROBAR)に割り当てる確率を推定する。
ProBARはアンビグニティ/オープンエンディエントネスの異なるプロンプトでセマンティックエントロピーを上回ります。
論文 参考訳(メタデータ) (2024-12-20T09:02:26Z) - CaLM: Contrasting Large and Small Language Models to Verify Grounded Generation [76.31621715032558]
グラウンデッドジェネレーションは、言語モデル(LM)に、より信頼性が高く説明可能な応答を生成する能力を持たせることを目的としている。
本稿では,新しい検証フレームワークであるCaLMを紹介する。
我々のフレームワークは、より少ないパラメトリックメモリに依存する小さなLMを有効活用し、より大きなLMの出力を検証する。
論文 参考訳(メタデータ) (2024-06-08T06:04:55Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Mitigating LLM Hallucinations via Conformal Abstention [70.83870602967625]
我々は,大言語モデルが一般ドメインでの応答をいつ無視すべきかを決定するための,原則化された手順を開発する。
我々は、幻覚率(エラー率)の厳密な理論的保証の恩恵を受けるため、共形予測手法を活用して、禁忌手順を開発する。
実験によって得られた共形禁忌法は, 種々の閉書, オープンドメイン生成質問応答データセットに, 幻覚率を確実に拘束する。
論文 参考訳(メタデータ) (2024-04-04T11:32:03Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。