論文の概要: ReGuLaR: Variational Latent Reasoning Guided by Rendered Chain-of-Thought
- arxiv url: http://arxiv.org/abs/2601.23184v1
- Date: Fri, 30 Jan 2026 17:08:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.581721
- Title: ReGuLaR: Variational Latent Reasoning Guided by Rendered Chain-of-Thought
- Title(参考訳): ReGuLaR:Rendered Chain-of-Thoughtガイドによる変分遅延推論
- Authors: Fanmeng Wang, Haotian Liu, Guojiang Zhao, Hongteng Xu, Zhifeng Gao,
- Abstract要約: 明示的な推論連鎖は、かなりの計算冗長性をもたらす。
近年の潜時推論法は、推理過程を潜時空間に圧縮することによりこれを緩和しようとする。
我々はRendered CoT-Guided Variational Latent Reasoning (ReGuLaR)を提案する。
- 参考スコア(独自算出の注目度): 49.203970812338916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Chain-of-Thought (CoT) significantly enhances the performance of Large Language Models (LLMs), explicit reasoning chains introduce substantial computational redundancy. Recent latent reasoning methods attempt to mitigate this by compressing reasoning processes into latent space, but often suffer from severe performance degradation due to the lack of appropriate compression guidance. In this study, we propose Rendered CoT-Guided variational Latent Reasoning (ReGuLaR), a simple yet novel latent learning paradigm resolving this issue. Fundamentally, we formulate latent reasoning within the Variational Auto-Encoding (VAE) framework, sampling the current latent reasoning state from the posterior distribution conditioned on previous ones. Specifically, when learning this variational latent reasoning model, we render explicit reasoning chains as images, from which we extract dense visual-semantic representations to regularize the posterior distribution, thereby achieving efficient compression with minimal information loss. Extensive experiments demonstrate that ReGuLaR significantly outperforms existing latent reasoning methods across both computational efficiency and reasoning effectiveness, and even surpasses CoT through multi-modal reasoning, providing a new and insightful solution to latent reasoning. Code: https://github.com/FanmengWang/ReGuLaR.
- Abstract(参考訳): CoT (Chain-of-Thought) はLarge Language Models (LLMs) の性能を大幅に向上させるが、明示的な推論チェーンは相当な計算冗長性をもたらす。
近年の潜在推理法では、推理過程を潜在空間に圧縮することでこれを緩和しようとするが、適切な圧縮ガイダンスが欠如しているため、しばしば深刻な性能劣化に悩まされる。
本研究では,この問題を解決する単純だが斬新な潜在学習パラダイムであるRendered CoT-Guided Variational Latent Reasoning (ReGuLaR)を提案する。
基本的には、変分自動符号化(VAE)フレームワーク内での潜時推論を定式化し、前者に条件付けられた後続分布から現在の潜時推論状態をサンプリングする。
具体的には、この変分潜時推論モデルを学習する際に、画像として明示的な推論連鎖を描画し、そこから濃密な視覚意味表現を抽出して後部分布を正規化し、情報損失を最小限に抑えた効率的な圧縮を実現する。
大規模な実験では、ReGuLaRは計算効率と推論効率の両方で既存の潜伏推論法を著しく上回り、マルチモーダル推論によってCoTを上回り、潜伏推論に対する新しい洞察力のある解を提供する。
コード:https://github.com/FanmengWang/ReGuLaR.com
関連論文リスト
- Latent Chain-of-Thought as Planning: Decoupling Reasoning from Verbalization [9.193078163792427]
CoT(Chain-of-Thought)は、大規模言語モデル(LLM)に複雑な問題に取り組む権限を与える。
最近の潜伏推論手法は、連続した隠蔽状態内で推論を行うことによって効率を最適化しようとする。
PLaTは、潜在推論を言語化から根本的に切り離すことによって計画として再構成するフレームワークである。
論文 参考訳(メタデータ) (2026-01-29T07:38:18Z) - Think Consistently, Reason Efficiently: Energy-Based Calibration for Implicit Chain-of-Thought [33.267497114389734]
大規模言語モデル(LLM)は、emphChain-of-Thought(CoT)のプロンプトを通じて、強力な推論能力を示している。
CoT法は離散トークンレベルの推論プロセスに依存しており、誤りの伝播が難しく、語彙によって制限される。
EBM-CoT(Energy-based Chain-of-Thought)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-10T14:10:58Z) - A Survey on Latent Reasoning [100.54120559169735]
大きな言語モデル(LLM)は印象的な推論機能を示している。
中間ステップを言語化するCoT推論は、モデルの表現帯域幅を制限する。
潜在的推論は、モデルの連続的な隠れ状態に完全にマルチステップの推論を実行することで、このボトルネックに対処する。
論文 参考訳(メタデータ) (2025-07-08T17:29:07Z) - ConciseHint: Boosting Efficient Reasoning via Continuous Concise Hints during Generation [74.37307916314407]
提案するフレームワークはConciseHintと呼ばれ,推論モデルが簡潔に話すことを継続的に奨励する。
DeepSeek-R1 および Qwen-3 シリーズを含む最先端の LRM 実験により,本手法が簡潔な推論を効果的に生成できることが実証された。
論文 参考訳(メタデータ) (2025-06-23T16:20:44Z) - The Curse of CoT: On the Limitations of Chain-of-Thought in In-Context Learning [56.574829311863446]
CoT(Chain-of-Thought)プロンプトは,大規模言語モデル(LLM)における推論能力の向上によって広く認識されている。
我々は、CoTとその推論変異が、様々なモデルスケールやベンチマークの複雑さに対して、直接応答を一貫して過小評価していることを実証する。
パターンベースICLにおけるCoTの性能を駆動する明示的単純推論の基本的なハイブリッド機構を明らかにする。
論文 参考訳(メタデータ) (2025-04-07T13:51:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。