論文の概要: SpiralThinker: Latent Reasoning through an Iterative Process with Text-Latent Interleaving
- arxiv url: http://arxiv.org/abs/2511.08983v1
- Date: Thu, 13 Nov 2025 01:23:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.338899
- Title: SpiralThinker: Latent Reasoning through an Iterative Process with Text-Latent Interleaving
- Title(参考訳): SpiralThinker: テキスト遅延インターリービングによる反復的プロセスによる潜時推論
- Authors: Shengmin Piao, Sanghyun Park,
- Abstract要約: SpiralThinkerは、潜在表現を反復的に更新する統合フレームワークである。
構造化アノテーションと組み合わせたプログレッシブアライメントの目的は、潜在的推論とテキスト推論のコヒーレンスを維持する。
- 参考スコア(独自算出の注目度): 4.732347368043908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in large reasoning models have been driven by reinforcement learning and test-time scaling, accompanied by growing interest in latent rather than purely textual reasoning. However, existing latent reasoning methods lack mechanisms to ensure stable evolution of latent representations and a systematic way to interleave implicit and explicit reasoning. We introduce SpiralThinker, a unified framework that performs iterative updates over latent representations, enabling extended implicit reasoning without generating additional tokens. A progressive alignment objective combined with structured annotations maintains coherence between latent and textual reasoning. Across mathematical, logical, and commonsense reasoning tasks, SpiralThinker achieves the best overall performance among latent reasoning approaches, consistently surpassing previous methods across all benchmarks. Detailed analyses reveal that both iteration and alignment are indispensable, the numbers of latent tokens and iterations exhibit dataset-specific optima, and appropriate alignment proves critical for an effective iterative process. Overall, SpiralThinker bridges iterative computation and latent reasoning, demonstrating that aligned iterative updates can reliably steer reasoning in the latent space.
- Abstract(参考訳): 大規模推論モデルの最近の進歩は、強化学習とテスト時間スケーリングによって推進され、純粋にテキストによる推論よりも潜伏者への関心が高まっている。
しかし、既存の潜伏推論手法には、潜伏表現の安定な進化を保証するメカニズムと、暗黙的かつ明示的な推論をインターリーブする体系的な方法が欠如している。
SpiralThinkerは、潜在表現を反復的に更新する統合フレームワークで、追加のトークンを生成することなく、暗黙の推論を拡張できる。
構造化アノテーションと組み合わせたプログレッシブアライメントの目的は、潜在的推論とテキスト推論のコヒーレンスを維持する。
数学的、論理的、常識的な推論タスク全体にわたって、SpiralThinkerは遅延推論アプローチの中で最高の全体的なパフォーマンスを達成し、すべてのベンチマークで従来手法を一貫して上回っている。
詳細な分析によると、反復とアライメントの両方が必須であり、潜在トークンとイテレーションの数はデータセット固有の最適性を示し、適切なアライメントは効果的な反復プロセスにとって重要である。
全体として、SpiralThinkerは反復計算と潜時推論を橋渡しし、反復的更新が潜時空間で確実に推理することを示した。
関連論文リスト
- A Survey on Parallel Reasoning [58.66122129692264]
まず、並列推論の形式的定義を示し、その区別をChain-of-Thoughtのような関連する概念と明確にする。
次に、非対話的推論、対話的推論、効率を重視した復号戦略を含む、新しい分類法に基づく高度な手法を編成し、議論する。
並列推論の中核的な課題を強調し,今後の研究の方向性を示唆する。
論文 参考訳(メタデータ) (2025-10-14T05:42:19Z) - LaDiR: Latent Diffusion Enhances LLMs for Text Reasoning [30.62691333490551]
大規模言語モデル(LLM)は、思考の連鎖生成を通じて推論能力を示す。
連続潜在表現の表現性を統一する新しい推論フレームワークであるLaDiRを提案する。
LaDiRは、既存の自己回帰的、拡散的、潜伏的推論方法よりも、精度、多様性、解釈性を一貫して改善する。
論文 参考訳(メタデータ) (2025-10-06T08:15:03Z) - Implicit Reasoning in Large Language Models: A Comprehensive Survey [67.53966514728383]
大規模言語モデル(LLM)は、幅広いタスクにまたがる強力な一般化を実証している。
最近の研究は、暗黙の推論に拍車をかけた、明示的な思考の連鎖から注意を向けている。
本調査では,表現形式から計算戦略へ焦点を移し,実行パラダイムを中心とした分類を紹介した。
論文 参考訳(メタデータ) (2025-09-02T14:16:02Z) - A Survey on Latent Reasoning [100.54120559169735]
大きな言語モデル(LLM)は印象的な推論機能を示している。
中間ステップを言語化するCoT推論は、モデルの表現帯域幅を制限する。
潜在的推論は、モデルの連続的な隠れ状態に完全にマルチステップの推論を実行することで、このボトルネックに対処する。
論文 参考訳(メタデータ) (2025-07-08T17:29:07Z) - ConciseHint: Boosting Efficient Reasoning via Continuous Concise Hints during Generation [74.37307916314407]
提案するフレームワークはConciseHintと呼ばれ,推論モデルが簡潔に話すことを継続的に奨励する。
DeepSeek-R1 および Qwen-3 シリーズを含む最先端の LRM 実験により,本手法が簡潔な推論を効果的に生成できることが実証された。
論文 参考訳(メタデータ) (2025-06-23T16:20:44Z) - Rationale-Augmented Ensembles in Language Models [53.45015291520658]
我々は、数発のテキスト内学習のための合理化促進策を再考する。
我々は、出力空間における合理的サンプリングを、性能を確実に向上させるキーコンポーネントとして特定する。
有理拡張アンサンブルは既存のプロンプト手法よりも正確で解釈可能な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-07-02T06:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。