論文の概要: Thinking to Recall: How Reasoning Unlocks Parametric Knowledge in LLMs
- arxiv url: http://arxiv.org/abs/2603.09906v1
- Date: Tue, 10 Mar 2026 16:59:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.482766
- Title: Thinking to Recall: How Reasoning Unlocks Parametric Knowledge in LLMs
- Title(参考訳): リコールを考える - LLMのパラメトリック知識を解き放つ方法
- Authors: Zorik Gekhman, Roee Aharoni, Eran Ofek, Mor Geva, Roi Reichart, Jonathan Herzig,
- Abstract要約: 提案手法は,モデルのパラメトリック知識リコールの能力境界を大幅に拡張する。
我々は,幻覚のない事実文を含む推論軌道を優先することで,モデル精度を直接的に向上できることを示す。
- 参考スコア(独自算出の注目度): 45.274171760492685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While reasoning in LLMs plays a natural role in math, code generation, and multi-hop factual questions, its effect on simple, single-hop factual questions remains unclear. Such questions do not require step-by-step logical decomposition, making the utility of reasoning highly counterintuitive. Nevertheless, we find that enabling reasoning substantially expands the capability boundary of the model's parametric knowledge recall, unlocking correct answers that are otherwise effectively unreachable. Why does reasoning aid parametric knowledge recall when there are no complex reasoning steps to be done? To answer this, we design a series of hypothesis-driven controlled experiments, and identify two key driving mechanisms: (1) a computational buffer effect, where the model uses the generated reasoning tokens to perform latent computation independent of their semantic content; and (2) factual priming, where generating topically related facts acts as a semantic bridge that facilitates correct answer retrieval. Importantly, this latter generative self-retrieval mechanism carries inherent risks: we demonstrate that hallucinating intermediate facts during reasoning increases the likelihood of hallucinations in the final answer. Finally, we show that our insights can be harnessed to directly improve model accuracy by prioritizing reasoning trajectories that contain hallucination-free factual statements.
- Abstract(参考訳): LLMにおける推論は、数学、コード生成、マルチホップの事実問題において自然な役割を果たすが、単純でシングルホップの事実問題に対する影響はいまだ不明である。
このような質問はステップバイステップの論理的分解を必要としないので、推論の実用性は非常に直観的ではない。
それでも、推論を可能にすることは、モデルのパラメトリック知識リコールの能力境界を大幅に拡張し、それ以外は事実上到達不可能な正解を解き放つことを発見した。
複雑な推論手順がなければ、なぜ推論はパラメトリックな知識を思い出すのか?
これに対応するために, 仮説駆動型制御実験のシリーズを設計し, 計算バッファ効果, モデルが生成した推論トークンを用いて, セマンティックコンテンツに依存しない遅延計算を行う, および, 事実プライミングの2つの主要な駆動機構を同定する。
重要なことは、この後者の生成的自己検索メカニズムは固有のリスクを伴い、推論中の中間事実の幻覚が最終回答における幻覚の可能性を高めることを実証する。
最後に, 幻覚のない事実文を含む推論軌道を優先することで, モデル精度を直接的に向上できることを示す。
関連論文リスト
- Reasoning or Retrieval? A Study of Answer Attribution on Large Reasoning Models [15.797612515648412]
大きな推論モデル (LRMs) は、Chain-of-Thought (CoT) 推論を通じて複雑な問題を解く際、前例のない能力を示す。
最近の研究では、彼らの最後の答えは、しばしば彼ら自身の推論の痕跡と矛盾していることが明らかになっている。
この矛盾は、CoT推論とメモリ検索という2つの競合メカニズムに起因していると仮定する。
本稿では,メモリアンラーニングと強化学習を統合したファインチューニングフレームワークFARLを紹介する。
論文 参考訳(メタデータ) (2025-09-29T01:13:33Z) - On the Fundamental Impossibility of Hallucination Control in Large Language Models [0.0]
不合理性理論:非自明な知識集約を行うLLMは、真理的な知識表現、意味情報保存、関連する知識の啓示を同時に達成できない。
提案手法は,アイデアのオークションとして推論をモデル化し,分散コンポーネントが符号化された知識を用いて応答に影響を与えることを証明している。
幻覚と想像力は数学的に同一であり、どちらも4つの重要な性質のうちの少なくとも1つに反する。
論文 参考訳(メタデータ) (2025-06-04T23:28:39Z) - Distilling Reasoning Ability from Large Language Models with Adaptive Thinking [54.047761094420174]
思考の微調整(cot-finetuning)の連鎖は、小さな言語モデル(SLM)を特定のタスクに対するパフォーマンス向上の推論能力で実現することを目的としている。
既存のコトファインタニング法の多くは事前に考えられたメカニズムを採用しており、SLMは答えを出す前に理性を生成することができる。
このメカニズムにより、SLMは複雑な質問を分析して考えることができるが、答えの正しさは論理的に小さな誤りに非常に敏感になる。
理性よりも先に回答を生成するための頑健な後思考機構を提案する。
論文 参考訳(メタデータ) (2024-04-14T07:19:27Z) - Understanding Reasoning Ability of Language Models From the Perspective of Reasoning Paths Aggregation [110.71955853831707]
我々は、LMを、事前学習時に見られる間接的推論経路を集約することで、新たな結論を導出すると考えている。
我々は、推論経路を知識/推論グラフ上のランダムウォークパスとして定式化する。
複数のKGおよびCoTデータセットの実験と分析により、ランダムウォークパスに対するトレーニングの効果が明らかにされた。
論文 参考訳(メタデータ) (2024-02-05T18:25:51Z) - Faithful Reasoning Using Large Language Models [12.132449274592668]
因果構造が問題の根底にある論理構造を反映するプロセスを通じて、LMを忠実な多段階推論を行う方法を示す。
我々の手法は、各ステップが2つの微調整されたLMへの呼び出しから得られる推論ステップをチェーンすることで機能する。
我々は,多段階論理推論と科学的質問応答におけるモデルの有効性を実証し,最終的な解答精度のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-08-30T13:44:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。