論文の概要: Language Model Planning from an Information Theoretic Perspective
- arxiv url: http://arxiv.org/abs/2509.25260v1
- Date: Sun, 28 Sep 2025 01:58:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.212142
- Title: Language Model Planning from an Information Theoretic Perspective
- Title(参考訳): 情報理論から見た言語モデルプランニング
- Authors: Muhammed Ustaomeroglu, Baris Askin, Gauri Joshi, Carlee Joe-Wong, Guannan Qu,
- Abstract要約: デコーダのみの言語モデル(LM)は、コヒーレントな長距離生成をサポートするために中間計算を編成する。
計画には、長い地平線上で計算を構造化し、複数の可能な継続を考慮し、過去の情報を選択的に再利用することが含まれる。
我々は、合成文法、パスフィニングタスク、自然言語データセットにわたるLMにおける計画について研究する。
- 参考スコア(独自算出の注目度): 31.323156960716826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The extent to which decoder-only language models (LMs) engage in planning, that is, organizing intermediate computations to support coherent long-range generation, remains an open and important question, with implications for interpretability, reliability, and principled model design. Planning involves structuring computations over long horizons, considering multiple possible continuations, and selectively reusing past information, but how effectively transformer-based LMs realize these capabilities is still unclear. We address these questions by analyzing the hidden states at the core of transformer computations, which capture intermediate results and act as carriers of information. Since these hidden representations are often redundant and encumbered with fine-grained details, we develop a pipeline based on vector-quantized variational autoencoders that compresses them into compact summary codes. These codes enable measuring mutual information, allowing systematic analysis of the computational structure underlying model behavior. Using this framework, we study planning in LMs across synthetic grammar, path-finding tasks, and natural language datasets, focusing on three key aspects: (i) the planning horizon of pre-output computations, (ii) the extent to which the model considers alternative valid continuations, and (iii) the reliance of new predictions on earlier computations. By answering these questions, we advance the understanding of how planning is realized in LMs and contribute a general-purpose pipeline for probing the internal dynamics of LMs and deep learning systems. Our results reveal that the effective planning horizon is task-dependent, that models implicitly preserve information about unused correct continuations, and that predictions draw most on recent computations, though earlier blocks remain informative.
- Abstract(参考訳): デコーダのみの言語モデル(LM)が計画に関わる範囲、すなわち、コヒーレントな長距離生成をサポートするために中間計算を整理することは、解釈可能性、信頼性、原理化されたモデル設計に影響を及ぼす、オープンで重要な問題である。
計画には、複数の可能な継続を考慮し、過去の情報を選択的に再利用する、長い地平線上での計算の構造化が含まれるが、いかに効果的にトランスフォーマーベースのLMがこれらの機能を実現するかは、まだ不明である。
これらの問題に対処するために、トランスフォーマー計算のコアにある隠れ状態を分析し、中間結果をキャプチャし、情報のキャリアとして機能する。
これらの隠蔽表現は、しばしば冗長で細部まで細部を包含しているため、ベクトル量子化変分オートエンコーダに基づくパイプラインを開発し、コンパクトな要約符号に圧縮する。
これらの符号は相互情報の計測を可能にし、モデル行動の基礎となる計算構造の体系的な解析を可能にする。
このフレームワークを用いて、合成文法、パスフィニングタスク、自然言語データセットにわたるLMの計画について研究し、3つの重要な側面に焦点を当てた。
一 事前出力計算の計画的地平
二 モデルが代替有効な継続を考慮すべき程度、及び
三 以前の計算に新しい予測を頼ること。
これらの疑問に答えることで、我々は、LMにおける計画の実現方法の理解を深め、LMとディープラーニングシステムの内部ダイナミクスを探索するための汎用パイプラインに寄与する。
本結果から, 有効計画の地平線はタスク依存であり, モデルでは未使用の正しい継続に関する情報を暗黙的に保存し, 予測は近年の計算に大きく影響していることがわかった。
関連論文リスト
- Latent Diffusion Planning for Imitation Learning [78.56207566743154]
Latent Diffusion Planning (LDP) は、プランナーと逆ダイナミクスモデルからなるモジュラーアプローチである。
行動予測からプランニングを分離することにより、LDPは最適なデータと行動自由データのより密集した監視信号の恩恵を受けることができる。
シミュレーションされた視覚ロボット操作タスクにおいて、LDPは最先端の模倣学習アプローチより優れている。
論文 参考訳(メタデータ) (2025-04-23T17:53:34Z) - Complex LLM Planning via Automated Heuristics Discovery [48.07520536415374]
複雑な計画タスクのための大規模言語モデル(LLM)の強化を検討する。
我々は,LLMがガイドタイム検索の関数を明示的に生成できる新しい手法である自動推論発見(AutoHD)を提案する。
提案手法はモデルトレーニングや微調整を必要とせず,LLMが生成する関数の明示的な定義は推論過程の解釈可能性と洞察を与える。
論文 参考訳(メタデータ) (2025-02-26T16:52:31Z) - ALPINE: Unveiling the Planning Capability of Autoregressive Learning in Language Models [48.559185522099625]
計画は人間の知性と現代大言語モデル(LLM)の両方の重要な要素である
本稿では,トランスフォーマーを用いたLLMにおける次の単語予測機構による計画能力の出現について検討する。
論文 参考訳(メタデータ) (2024-05-15T09:59:37Z) - Guiding Language Model Reasoning with Planning Tokens [122.43639723387516]
大規模言語モデル(LLM)は、最近、複雑な推論タスクを実行する能力に対して、かなりの関心を集めている。
より構造的なチェーン・オブ・シークレット・ステップの創出を促す階層的な生成手法を提案する。
提案手法では、トレーニング可能なパラメータ(0.001%)の無視可能な増加が必要であり、完全な微調整か、よりパラメータ効率の良いスキームで適用することができる。
論文 参考訳(メタデータ) (2023-10-09T13:29:37Z) - Language Models Implement Simple Word2Vec-style Vector Arithmetic [32.2976613483151]
言語モデル(LM)に対する主要な批判は、その調査性である。
本稿では,その大きさと複雑さにもかかわらず,LMは単純なベクトル演算方式を用いて,いくつかのリレーショナルタスクを解くことの証拠を提示する。
論文 参考訳(メタデータ) (2023-05-25T15:04:01Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - PDSketch: Integrated Planning Domain Programming and Learning [86.07442931141637]
我々は PDSketch という新しいドメイン定義言語を提案する。
これにより、ユーザーはトランジションモデルで柔軟にハイレベルな構造を定義できる。
移行モデルの詳細は、トレーニング可能なニューラルネットワークによって満たされる。
論文 参考訳(メタデータ) (2023-03-09T18:54:12Z) - Interpretable by Design: Learning Predictors by Composing Interpretable
Queries [8.054701719767293]
機械学習アルゴリズムは設計によって解釈されるべきである。
正確な予測に必要なクエリの数を最小限に抑える。
視覚とNLPタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2022-07-03T02:40:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。