論文の概要: iCLP: Large Language Model Reasoning with Implicit Cognition Latent Planning
- arxiv url: http://arxiv.org/abs/2512.24014v1
- Date: Tue, 30 Dec 2025 06:19:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.298907
- Title: iCLP: Large Language Model Reasoning with Implicit Cognition Latent Planning
- Title(参考訳): iCLP: 意図しない認知遅延計画を伴う大規模言語モデル推論
- Authors: Sijia Chen, Di Niu,
- Abstract要約: 大規模言語モデル(LLM)は、問題解決において、信頼性の高いステップバイステップ推論を行うことができる。
幻覚が原因で 正確な 効果的なテキストプランを作成することは 困難です
LLMが適応的に潜在計画を生成するための新しいフレームワークiCLPを提案する。
- 参考スコア(独自算出の注目度): 28.763018368302117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs), when guided by explicit textual plans, can perform reliable step-by-step reasoning during problem-solving. However, generating accurate and effective textual plans remains challenging due to LLM hallucinations and the high diversity of task-specific questions. To address this, we draw inspiration from human Implicit Cognition (IC), the subconscious process by which decisions are guided by compact, generalized patterns learned from past experiences without requiring explicit verbalization. We propose iCLP, a novel framework that enables LLMs to adaptively generate latent plans (LPs), which are compact encodings of effective reasoning instructions. iCLP first distills explicit plans from existing step-by-step reasoning trajectories. It then learns discrete representations of these plans via a vector-quantized autoencoder coupled with a codebook. Finally, by fine-tuning LLMs on paired latent plans and corresponding reasoning steps, the models learn to perform implicit planning during reasoning. Experimental results on mathematical reasoning and code generation tasks demonstrate that, with iCLP, LLMs can plan in latent space while reasoning in language space. This approach yields significant improvements in both accuracy and efficiency and, crucially, demonstrates strong cross-domain generalization while preserving the interpretability of chain-of-thought reasoning.
- Abstract(参考訳): 大きな言語モデル(LLM)は、明示的なテキスト計画によってガイドされる場合、問題解決時に信頼できるステップバイステップ推論を行うことができる。
しかし、LLM幻覚とタスク固有の質問の多様性のため、正確で効果的なテキストプランの作成は依然として困難である。
これを解決するために,人間の意図的認知(IC)からインスピレーションを得た。これは,決定を明示的な動詞化を必要とせず,過去の経験から学んだ,コンパクトで一般化されたパターンによって導かれる,意識的なプロセスである。
我々は,LLMが効果的な推論命令のコンパクト符号化である遅延計画(LP)を適応的に生成できる新しいフレームワークiCLPを提案する。
iCLPはまず、既存のステップバイステップ推論軌道から明確な計画を抽出する。
その後、ベクトル量子化されたオートエンコーダとコードブックを組み合わせることで、これらのプランの離散表現を学習する。
最後に、ペア化された潜在計画とそれに対応する推論ステップでLLMを微調整することにより、モデルが推論中に暗黙的な計画を実行することを学ぶ。
数学的推論とコード生成タスクの実験結果は、iCLPでは、LLMが言語空間で推論しながら潜在空間で計画できることを実証している。
このアプローチは精度と効率の両方において大幅な改善をもたらし、重要なことは、チェーンオブ思考推論の解釈可能性を維持しながら、強いクロスドメインの一般化を示すことである。
関連論文リスト
- Teaching LLMs to Plan: Logical Chain-of-Thought Instruction Tuning for Symbolic Planning [23.185497225384207]
大規模言語モデル(LLM)は、様々なタスクにまたがる印象的な機能を示しているが、構造化されたシンボリックプランニングを実行する能力はまだ限られている。
論理的連鎖推論によりLLMのシンボリックプランニング能力を高めるために設計された新しい命令チューニングフレームワークPDDL-Instructを提案する。
論文 参考訳(メタデータ) (2025-09-14T02:42:34Z) - Think Small, Plan Smart: Minimalist Symbolic Abstraction and Heuristic Subspace Search for LLM-Guided Task Planning [19.421916137269275]
大規模言語モデル(LLM)は、複雑で曖昧な自然言語命令を実行可能な計画に変換するための有望なインターフェースを提供する。
最近のフレームワークは、まずアクションモデル(Planning Domain Definition Language)を生成し、次に検索を適用することで、LCMとシンボリックプランナーを組み合わせる。
抽象的シンボル表現とメタヒューリスティックな部分空間探索を並列かつ反復的に統合する2段階のLLMシンボリック計画フレームワークPLAHXを提案する。
論文 参考訳(メタデータ) (2025-01-25T13:33:22Z) - Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - Non-myopic Generation of Language Models for Reasoning and Planning [45.75146679449453]
本稿では,モデル予測制御を利用した予測復号化手法を提案する。
我々の実験では、数学、コーディング、エージェントの幅広いタスクにおいて、大幅な改善が示されている。
論文 参考訳(メタデータ) (2024-10-22T17:13:38Z) - Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - Exploring and Benchmarking the Planning Capabilities of Large Language Models [57.23454975238014]
この研究は、大規模言語モデル(LLM)の計画能力を改善するための基礎を築いた。
我々は、古典的な計画ベンチマークと自然言語シナリオの両方を含む包括的なベンチマークスイートを構築した。
本研究は,LLM計画の強化を目的としたマルチショットインコンテキスト学習について検討し,文脈長の増大と計画性能の向上の関係について検討する。
論文 参考訳(メタデータ) (2024-06-18T22:57:06Z) - Neuro-Symbolic Causal Language Planning with Commonsense Prompting [67.06667162430118]
言語プランニングは、より単純な低レベルステップに分解することで、複雑な高レベルな目標を実装することを目的としている。
以前の手法では、大規模な言語モデルからそのような能力を得るために、手動の例えか注釈付きプログラムが必要である。
本稿では,LLMからの手続き的知識をコモンセンス・インフュージョン・プロンプトにより引き起こすニューロシンボリック因果言語プランナー(CLAP)を提案する。
論文 参考訳(メタデータ) (2022-06-06T22:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。