論文の概要: System-1.5 Reasoning: Traversal in Language and Latent Spaces with Dynamic Shortcuts
- arxiv url: http://arxiv.org/abs/2505.18962v2
- Date: Thu, 29 May 2025 07:35:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 15:42:34.109795
- Title: System-1.5 Reasoning: Traversal in Language and Latent Spaces with Dynamic Shortcuts
- Title(参考訳): System-1.5 Reasoning:動的ショートカットによる言語と潜在空間のトラバース
- Authors: Xiaoqiang Wang, Suyuchen Wang, Yun Zhu, Bang Liu,
- Abstract要約: CoT推論(Chain-of-Thought reasoning)は、大規模言語モデルでシステム2推論を行うことを可能にする。
最近の潜在空間推論手法は、言語に復号することなく隠れ状態を操作することで効率を向上させる。
本稿では,適応推論フレームワークであるSystem-1.5 Reasoningを提案する。
- 参考スコア(独自算出の注目度): 24.825945729508682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chain-of-thought (CoT) reasoning enables large language models (LLMs) to move beyond fast System-1 responses and engage in deliberative System-2 reasoning. However, this comes at the cost of significant inefficiency due to verbose intermediate output. Recent latent-space reasoning methods improve efficiency by operating on hidden states without decoding into language, yet they treat all steps uniformly, failing to distinguish critical deductions from auxiliary steps and resulting in suboptimal use of computational resources. In this paper, we propose System-1.5 Reasoning, an adaptive reasoning framework that dynamically allocates computation across reasoning steps through shortcut paths in latent space. Specifically, System-1.5 Reasoning introduces two types of dynamic shortcuts. The model depth shortcut (DS) adaptively reasons along the vertical depth by early exiting non-critical tokens through lightweight adapter branches, while allowing critical tokens to continue through deeper Transformer layers. The step shortcut (SS) reuses hidden states across the decoding steps to skip trivial steps and reason horizontally in latent space. Training System-1.5 Reasoning involves a two-stage self-distillation process: first distilling natural language CoT into latent-space continuous thought, and then distilling full-path System-2 latent reasoning into adaptive shortcut paths (System-1.5 Reasoning). Experiments on reasoning tasks demonstrate the superior performance of our method. For example, on GSM8K, System-1.5 Reasoning achieves reasoning performance comparable to traditional CoT fine-tuning methods while accelerating inference by over 20x and reducing token generation by 92.31% on average.
- Abstract(参考訳): CoT推論(Chain-of-Thought reasoning)は、大規模言語モデル(LLM)がSystem-1応答を高速に越え、System-2推論を行うことを可能にする。
しかし、これは冗長な中間出力のため、かなりの非効率性が伴う。
最近の潜在空間推論手法は、言語に復号することなく隠れ状態を操作することで効率を向上するが、全てのステップを均一に扱うことができず、重要な減算を補助的なステップと区別できず、計算資源を最適に活用する結果となった。
本稿では,適応推論フレームワークであるSystem-1.5 Reasoningを提案する。
具体的には、System-1.5 Reasoningは2種類の動的ショートカットを導入している。
モデル深度ショートカット(DS)は、軽量なアダプタブランチを通じて非クリティカルトークンを早期に退避させ、重要なトークンをより深いトランスフォーマー層を通して継続させることによって、垂直の深さに沿って適応的に原因を定めている。
ステップショートカット(SS)は、デコードステップ全体にわたって隠された状態を再利用し、自明なステップをスキップし、潜時空間で水平に推論する。
トレーニングシステム-1.5 推論は、2段階の自己蒸留プロセスを含む: 自然言語CoTを潜在空間の連続的な思考に蒸留した後、適応的なショートカットパス(システム-1.5 推論)にフルパスシステム-2を蒸留する。
推論タスクの実験は,提案手法の優れた性能を示す。
例えば、GSM8Kでは、System-1.5 Reasoningは従来のCoTファインチューニング手法に匹敵する推論性能を達成し、推論を20倍、トークン生成を平均92.31%削減する。
関連論文リスト
- Stop Overthinking: A Survey on Efficient Reasoning for Large Language Models [54.04678363287392]
大規模言語モデル(LLM)は複雑なタスクにおいて顕著な機能を示した。
OpenAI o1とDeepSeek-R1の最近の進歩は、System-2推論ドメインのパフォーマンスをさらに改善した。
論文 参考訳(メタデータ) (2025-03-20T17:59:38Z) - Sketch-of-Thought: Efficient LLM Reasoning with Adaptive Cognitive-Inspired Sketching [60.04718679054704]
Chain-of-Thoughtはステップバイステップの問題解決を促すが、中間出力の過剰な冗長性を犠牲にすることが多い。
我々は,認知にインスパイアされた推論パラダイムを言語制約と統合する促進フレームワークであるSketch-of-Thought(SoT)を提案する。
SoTはトークンを最大78%削減し、15の推論データセットで最小限の精度損失を発生させる。
論文 参考訳(メタデータ) (2025-03-07T06:57:17Z) - Dynamic Parallel Tree Search for Efficient LLM Reasoning [102.16694475391665]
Tree of Thoughts (ToT) は大規模言語モデル(LLM)推論を強化し、分散木としての問題解決を構造化する。
推論における推論経路を動的に最適化することを目的とした,新しい並列化フレームワークであるDynamic Parallel Tree Search (DPTS)を提案する。
Qwen-2.5とLlama-3のMath500とGSM8Kデータセットによる実験では、DPTSは平均で2-4倍効率が向上した。
論文 参考訳(メタデータ) (2025-02-22T14:13:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。