論文の概要: Reasoning Beyond Chain-of-Thought: A Latent Computational Mode in Large Language Models
- arxiv url: http://arxiv.org/abs/2601.08058v1
- Date: Mon, 12 Jan 2026 23:01:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:18.974633
- Title: Reasoning Beyond Chain-of-Thought: A Latent Computational Mode in Large Language Models
- Title(参考訳): チェーン・オブ・ワットを超えた推論:大規模言語モデルにおける潜在計算モード
- Authors: Zhenghao He, Guangzhi Xiong, Bohan Liu, Sanchit Sinha, Aidong Zhang,
- Abstract要約: CoT(Chain-of-Thought)プロンプトにより,大規模言語モデル(LLM)の推論性能が向上した。
なぜそれが機能するのか、そしてそれが大きな言語モデルで推論をトリガーするユニークなメカニズムであるかどうかは不明だ。
- 参考スコア(独自算出の注目度): 39.5490415037017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chain-of-Thought (CoT) prompting has improved the reasoning performance of large language models (LLMs), but it remains unclear why it works and whether it is the unique mechanism for triggering reasoning in large language models. In this work, we study this question by directly analyzing and intervening on the internal representations of LLMs with Sparse Autoencoders (SAEs), identifying a small set of latent features that are causally associated with LLM reasoning behavior. Across multiple model families and reasoning benchmarks, we find that steering a single reasoning-related latent feature can substantially improve accuracy without explicit CoT prompting. For large models, latent steering achieves performance comparable to standard CoT prompting while producing more efficient outputs. We further observe that this reasoning-oriented internal state is triggered early in generation and can override prompt-level instructions that discourage explicit reasoning. Overall, our results suggest that multi-step reasoning in LLMs is supported by latent internal activations that can be externally activated, while CoT prompting is one effective, but not unique, way of activating this mechanism rather than its necessary cause.
- Abstract(参考訳): CoT(Chain-of-Thought)の促進により,大規模言語モデル(LLM)の推論性能が向上した。
本研究では, LLMの内部表現をスパースオートエンコーダ (SAE) で直接解析し介入することにより, LLM推論行動と因果関係のある潜在特徴の小さなセットを同定する。
複数のモデルファミリと推論ベンチマークで、単一の推論関連潜在機能をステアリングすることで、CoTプロンプトを明示することなく精度を大幅に向上できることがわかった。
大型モデルでは、遅延ステアリングは、より効率的な出力を生成しながら、標準のCoTプロンプトに匹敵する性能を達成する。
さらに、この推論指向の内部状態は、生成初期にトリガーされ、明示的な推論を妨げるプロンプトレベルの命令をオーバーライドすることができることを観察する。
以上の結果から,LSMの多段階的推論は外部に活性化可能な潜在的内的活性化によって支持され,CoTのプロンプトは1つの有効だが一意ではないことが示唆された。
関連論文リスト
- Implicit Reasoning in Large Language Models: A Comprehensive Survey [67.53966514728383]
大規模言語モデル(LLM)は、幅広いタスクにまたがる強力な一般化を実証している。
最近の研究は、暗黙の推論に拍車をかけた、明示的な思考の連鎖から注意を向けている。
本調査では,表現形式から計算戦略へ焦点を移し,実行パラダイムを中心とした分類を紹介した。
論文 参考訳(メタデータ) (2025-09-02T14:16:02Z) - I Have Covered All the Bases Here: Interpreting Reasoning Features in Large Language Models via Sparse Autoencoders [8.1201445044499]
LLMの推論の背後にある内部メカニズムは未解明のままである。
仮説をテストするためにスパースオートエンコーダを使用します。
私たちの研究は、LLMにおける推論の機械的理解に向けた第一歩を提供します。
論文 参考訳(メタデータ) (2025-03-24T16:54:26Z) - Stop Overthinking: A Survey on Efficient Reasoning for Large Language Models [49.61246073215651]
大規模言語モデル(LLM)は複雑なタスクにおいて顕著な機能を示した。
OpenAI o1とDeepSeek-R1の最近の進歩は、System-2推論ドメインのパフォーマンスをさらに改善した。
しかし、冗長な出力と冗長な出力による計算オーバーヘッドも大幅に発生する。
論文 参考訳(メタデータ) (2025-03-20T17:59:38Z) - SoftCoT: Soft Chain-of-Thought for Efficient Reasoning with LLMs [48.28847964704554]
CoT(Chain-of-Thought)推論により、LLM(Large Language Models)は複雑な推論タスクを解くことができる。
LLMの変更を必要としない連続空間推論のための新しい手法を提案する。
論文 参考訳(メタデータ) (2025-02-17T18:52:29Z) - Efficient Reasoning with Hidden Thinking [48.96945580741641]
CoT(Chain-of-Thought)推論は、複雑な問題解決能力を改善するための強力なフレームワークになっています。
我々は,隠された潜在空間におけるCoTの推論を利用した効率的な推論フレームワークであるtextbfHeima$(隠されたラマとして)を提案する。
ハイマモデルは、ゼロショットタスクの精度を維持しつつ、より高い生成効率を達成する。
論文 参考訳(メタデータ) (2025-01-31T15:10:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。