論文の概要: How Do LLMs Perform Two-Hop Reasoning in Context?
- arxiv url: http://arxiv.org/abs/2502.13913v1
- Date: Wed, 19 Feb 2025 17:46:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 14:01:29.963763
- Title: How Do LLMs Perform Two-Hop Reasoning in Context?
- Title(参考訳): LLMはどのようにして2ホップ推論を実現するか?
- Authors: Tianyu Guo, Hanlin Zhu, Ruiqi Zhang, Jiantao Jiao, Song Mei, Michael I. Jordan, Stuart Russell,
- Abstract要約: 我々は合成二脚推論タスクで三層変圧器を訓練する。
モデルが乱れをランダムに推測する方法を学習するための内部メカニズムを説明する。
私たちの研究は、トレーニング中に推論がどのように現れるかについて、新たな洞察を与えてくれます。
- 参考スコア(独自算出の注目度): 76.79936191530784
- License:
- Abstract: "Socrates is human. All humans are mortal. Therefore, Socrates is mortal." This classical example demonstrates two-hop reasoning, where a conclusion logically follows from two connected premises. While transformer-based Large Language Models (LLMs) can make two-hop reasoning, they tend to collapse to random guessing when faced with distracting premises. To understand the underlying mechanism, we train a three-layer transformer on synthetic two-hop reasoning tasks. The training dynamics show two stages: a slow learning phase, where the 3-layer transformer performs random guessing like LLMs, followed by an abrupt phase transitions, where the 3-layer transformer suddenly reaches $100%$ accuracy. Through reverse engineering, we explain the inner mechanisms for how models learn to randomly guess between distractions initially, and how they learn to ignore distractions eventually. We further propose a three-parameter model that supports the causal claims for the mechanisms to the training dynamics of the transformer. Finally, experiments on LLMs suggest that the discovered mechanisms generalize across scales. Our methodologies provide new perspectives for scientific understandings of LLMs and our findings provide new insights into how reasoning emerges during training.
- Abstract(参考訳): 「ソクラテスは人間だ。人間は皆致命的だ。だからソクラテスは致命的だ。」
この古典的な例は、2-ホップ推論を示し、結論は2つの連結前提から論理的に従う。
トランスフォーマーベースのLarge Language Models (LLMs) は2ホップ推論を行うことができるが、混乱する前提に直面するとランダムな推測に崩壊する傾向がある。
基礎となるメカニズムを理解するために,合成二脚推論タスクにおいて三層変圧器を訓練する。
3層変圧器はLSMのようにランダムな推測を行い、その後急激な位相遷移を行い、3層変圧器は突然100%の精度に達した。
リバースエンジニアリングを通じて、モデルが最初に気晴らしをランダムに推測することを学ぶための内部メカニズムと、最終的に気晴らしを無視することを学ぶ方法を説明する。
さらに,変圧器のトレーニング力学に対する機構の因果クレームをサポートする3パラメータモデルを提案する。
最後に、LLMの実験は、発見されたメカニズムがスケールにわたって一般化されることを示唆している。
我々の方法論は, LLMの科学的理解に新たな視点を与え, 研究成果は, 学習中に推論がどのように現れるかという新たな洞察を与える。
関連論文リスト
- Unveiling the Magic of Code Reasoning through Hypothesis Decomposition and Amendment [54.62926010621013]
我々は,大規模言語モデルの推論能力に対する新たな視点を提供するために,新しいタスクであるコード推論を導入する。
論理的推論の確立した形式に基づいて3つのメタベンチマークを要約し、8つの特定のベンチマークタスクにインスタンス化する。
本稿では,人間の複雑な問題解決手法に触発された新たな経路探索パイプラインを提案する。
論文 参考訳(メタデータ) (2025-02-17T10:39:58Z) - How Transformers Solve Propositional Logic Problems: A Mechanistic Analysis [16.65073455206535]
大きな言語モデル(LLM)は、計画と推論を必要とするタスクで素晴らしいパフォーマンスを示しています。
そこで本研究では,複雑な論理的推論を行うネットワークの能力の基盤となる内部メカニズムについて検討する。
論文 参考訳(メタデータ) (2024-11-06T18:35:32Z) - On Memorization of Large Language Models in Logical Reasoning [70.94164038947078]
大きな言語モデル(LLM)は、挑戦的な推論ベンチマークで優れたパフォーマンスを達成するが、基本的な推論ミスを発生させることもできる。
1つの仮説は、より高度でほぼ飽和した性能は、類似した問題の記憶が原因ではないかというものである。
微調整は暗記を重くするが,常に一般化性能を向上することを示す。
論文 参考訳(メタデータ) (2024-10-30T15:31:54Z) - Grokked Transformers are Implicit Reasoners: A Mechanistic Journey to the Edge of Generalization [22.033370572209744]
我々は、トランスフォーマーがパラメトリック知識よりも暗黙的に推論できるかどうかを研究する。
我々は2つの代表的な推論タイプ、構成と比較に焦点を当てる。
トランスフォーマーは暗黙の推論を学習できるが、それはグルーキングでしか学べない。
論文 参考訳(メタデータ) (2024-05-23T21:42:19Z) - Towards a Theoretical Understanding of the 'Reversal Curse' via Training Dynamics [45.69328374321502]
自動回帰型大言語モデル(LLM)は、多くの複雑な推論タスクを解くのに優れた能力を示す。
LLM は、2つの文が意味的に同一であっても、推論中に '$B get A$' と結論付けることができない。
2つの自己回帰モデルに対する勾配降下のトレーニング力学を用いて、理論的に逆の呪いを解析する。
論文 参考訳(メタデータ) (2024-05-07T21:03:51Z) - How to think step-by-step: A mechanistic understanding of chain-of-thought reasoning [44.02173413922695]
理解の欠如は、CoT(Chain-of-Thought)の促進を促進するモデルの内部メカニズムに大きく影響する。
本研究では,CoT推論を一視点から示す大規模言語モデル内のサブ構造について検討する。
論文 参考訳(メタデータ) (2024-02-28T13:14:20Z) - Understanding Reasoning Ability of Language Models From the Perspective of Reasoning Paths Aggregation [110.71955853831707]
我々は、LMを、事前学習時に見られる間接的推論経路を集約することで、新たな結論を導出すると考えている。
我々は、推論経路を知識/推論グラフ上のランダムウォークパスとして定式化する。
複数のKGおよびCoTデータセットの実験と分析により、ランダムウォークパスに対するトレーニングの効果が明らかにされた。
論文 参考訳(メタデータ) (2024-02-05T18:25:51Z) - Deceptive Semantic Shortcuts on Reasoning Chains: How Far Can Models Go without Hallucination? [73.454943870226]
本研究はセマンティックアソシエーションによって誘発される特定の種類の幻覚の研究である。
この現象を定量化するために,EureQAと呼ばれる新しい探索手法とベンチマークを提案する。
論文 参考訳(メタデータ) (2023-11-16T09:27:36Z) - Towards a Mechanistic Interpretation of Multi-Step Reasoning
Capabilities of Language Models [107.07851578154242]
言語モデル(LM)は強力な多段階推論能力を持つ。
LMが事前学習コーパスから記憶された回答を不正に処理するか,多段階推論機構を用いてタスクを実行するかは明らかでない。
メカニスティックプローブは,ほとんどの例において,モデルの注意から推論ツリーの情報を検出することができることを示す。
論文 参考訳(メタデータ) (2023-10-23T01:47:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。