論文の概要: Manifold-based Sampling for In-Context Hallucination Detection in Large Language Models
- arxiv url: http://arxiv.org/abs/2601.06196v1
- Date: Thu, 08 Jan 2026 06:17:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.669075
- Title: Manifold-based Sampling for In-Context Hallucination Detection in Large Language Models
- Title(参考訳): 大規模言語モデルにおける文脈内幻覚検出のためのマニフォールドに基づくサンプリング
- Authors: Bodla Krishna Vamshi, Rohan Bhatnagar, Haizhao Yang,
- Abstract要約: 大型言語モデル (LLMs) は、しばしば幻覚と呼ばれる、事実的に誤った、またはサポートされていないコンテンツを生成する。
そこで本研究では,文書内デモを選択するための,多様体を用いた実演サンプリングフレームワークMB-ICLを提案する。
- 参考スコア(独自算出の注目度): 5.187020963919455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) frequently generate factually incorrect or unsupported content, commonly referred to as hallucinations. Prior work has explored decoding strategies, retrieval augmentation, and supervised fine-tuning for hallucination detection, while recent studies show that in-context learning (ICL) can substantially influence factual reliability. However, existing ICL demonstration selection methods often rely on surface-level similarity heuristics and exhibit limited robustness across tasks and models. We propose MB-ICL, a manifold-based demonstration sampling framework for selecting in-context demonstrations that leverages latent representations extracted from frozen LLMs. By jointly modeling local manifold structure and class-aware prototype geometry, MB-ICL selects demonstrations based on their proximity to learned prototypes rather than lexical or embedding similarity alone. Across factual verification (FEVER) and hallucination detection (HaluEval) benchmarks, MB-ICL outperforms standard ICL selection baselines in the majority of evaluated settings, with particularly strong gains on dialogue and summarization tasks. The method remains robust under temperature perturbations and model variation, indicating improved stability compared to heuristic retrieval strategies. While lexical retrieval can remain competitive in certain question-answering regimes, our results demonstrate that manifold-based prototype selection provides a reliable and training light approach for hallucination detection without modifying LLM parameters, offering a principled direction for improved ICL demonstration selection.
- Abstract(参考訳): 大型言語モデル (LLMs) は、しばしば幻覚と呼ばれる、事実的に誤った、またはサポートされていないコンテンツを生成する。
従来の研究では、復号戦略、検索強化、幻覚検出のための教師付き微調整が検討されてきたが、近年の研究では、文脈内学習(ICL)が事実の信頼性に大きく影響していることが示されている。
しかし、既存のICLの実証選択法は、しばしば表面レベルの類似性ヒューリスティックに頼り、タスクやモデル間で限られた堅牢性を示す。
本稿では,凍結したLLMから抽出した潜在表現を利用した実演文選択のための,多様体に基づく実演サンプリングフレームワークMB-ICLを提案する。
MB-ICLは局所多様体構造とクラス対応のプロトタイプ幾何を共同でモデル化することにより、語彙的あるいは埋め込み的類似性のみでなく、学習したプロトタイプに近接したデモを選択する。
事実検証(FEVER)と幻覚検出(HaluEval)ベンチマーク全体において、MB-ICLは評価設定の大部分で標準のICL選択ベースラインよりも優れており、特に対話や要約タスクでは大きな利益がある。
この手法は, 温度摂動およびモデル変動下では頑健であり, ヒューリスティック検索法と比較して安定性が向上したことを示す。
語彙検索はある種の問合せ方式において競争力を維持することができるが,本研究の結果から,LLMパラメータを変更せずに幻覚検出の信頼性と訓練光による評価が可能であり,ICLの実証選択を改善するための原則的方向が提供されることがわかった。
関連論文リスト
- A Comparative Study of Learning Paradigms in Large Language Models via Intrinsic Dimension [16.671316494925346]
大規模言語モデル(LLM)の隠れ表現に対する教師付き微調整と文脈内学習の効果について検討する。
我々はまず,LLM表現のIDがSFT中にどのように進化するか,ICLにおける実演数によってどのように変化するかを検討する。
次に、SFTとICLによって誘導されるIDを比較し、ICLはSFTと比較して常に高いIDを誘導する。
論文 参考訳(メタデータ) (2024-12-09T06:37:35Z) - ODE: Open-Set Evaluation of Hallucinations in Multimodal Large Language Models [15.156359255401812]
大規模言語モデル(MLLM)における幻覚を評価するためのオープンセット動的プロトコルを提案する。
ODEは、現実世界のオブジェクト概念、それらの属性、それらの間の分布関係を表現するために、グラフベースの構造を用いる。
生成タスクと識別タスクの両方において幻覚を評価する構造化クエリのさまざまなサンプルを生成する。
論文 参考訳(メタデータ) (2024-09-14T05:31:29Z) - ParaICL: Towards Parallel In-Context Learning [74.38022919598443]
大規模言語モデル(LLM)が自然言語処理の標準となっている。
インコンテキスト・ラーニング(ICL)は、いくつかの実演例の選択に依存している。
パラレルインコンテキスト学習(ParaICL)という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-31T05:56:15Z) - Revisiting Demonstration Selection Strategies in In-Context Learning [66.11652803887284]
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)を用いて広範囲のタスクを実行するという印象的な能力を示している。
本研究ではまず,データとモデルの両方の側面から,この分散に寄与する要因を再検討し,実演の選択がデータとモデルに依存していることを確かめる。
本研究では,データとモデルに依存した実演選択手法である textbfTopK + ConE を提案する。
論文 参考訳(メタデータ) (2024-01-22T16:25:27Z) - Iterative Forward Tuning Boosts In-Context Learning in Language Models [88.25013390669845]
本研究では,大規模言語モデル(LLM)における文脈内学習を促進する新しい2段階フレームワークを提案する。
具体的には、当社のフレームワークでは、ICLプロセスをDeep-ThinkingとTest Stageの2つの別々のステージに分類しています。
ディープシンキング段階にはユニークな注意機構、すなわち反復的な注意強化機構が組み込まれており、複数の情報の蓄積を可能にしている。
論文 参考訳(メタデータ) (2023-05-22T13:18:17Z) - Understanding Emergent In-Context Learning from a Kernel Regression Perspective [55.95455089638838]
大規模言語モデル(LLM)は、伝達学習のパラダイムシフトを開始した。
本稿では,LLMのICLバハビエータの理解におけるカーネル-回帰的視点を提案する。
ICL中、LLMの注意と隠れた特徴は、カーネル回帰の挙動と一致していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T06:45:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。