論文の概要: Unifying Inference-Time Planning Language Generation
- arxiv url: http://arxiv.org/abs/2505.14763v2
- Date: Tue, 07 Oct 2025 13:59:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 15:38:20.388842
- Title: Unifying Inference-Time Planning Language Generation
- Title(参考訳): 推論時計画言語生成の統一化
- Authors: Prabhu Prakash Kagitha, Bo Sun, Ishan Desai, Andrew Zhu, Cassie Huang, Manling Li, Ziyang Li, Li Zhang,
- Abstract要約: 計画の行は、計画を生成するのではなく、計画言語で形式的な表現を生成するためにLLMを使用する。
中間表現に基づく統一フレームワークを提案する。
我々は、言語生成パイプラインを計画するためのレシピを提供し、それらの様々なコンポーネントの有効性を示す一連の結論を導き出す。
- 参考スコア(独自算出の注目度): 27.998081619086477
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: A line of work in planning uses LLM not to generate a plan, but to generate a formal representation in some planning language, which can be input into a symbolic solver to deterministically find a plan. While showing improved trust and promising performance, dozens of recent publications have proposed scattered methods on a variety of benchmarks under different experimental settings. We attempt to unify the inference-time LLM-as-formalizer methodology for classical planning by proposing a unifying framework based on intermediate representations. We thus systematically evaluate more than a dozen pipelines that subsume most existing work, while proposing novel ones that involve syntactically similar but high resource intermediate languages (such as a Python wrapper of PDDL). We provide recipes for planning language generation pipelines, draw a series of conclusions showing the efficacy of their various components, and evidence their robustness against problem complexity.
- Abstract(参考訳): 計画における一行の作業は、LSMを使用して計画を生成するのではなく、計画言語で形式的な表現を生成する。
信頼性の向上と有望なパフォーマンスを示す一方で、最近の数十の出版物は、異なる実験環境下で様々なベンチマークに散在する手法を提案している。
我々は,中間表現に基づく統一フレームワークを提案することにより,古典的計画のための推論時LLM-as-formalizer方法論を統一しようとする。
そこで我々は,構文的に類似しているが高リソースの中間言語(PDDLのPythonラッパーなど)を含む新しいパイプラインを提案しながら,既存の作業の多くを補足する12以上のパイプラインを体系的に評価する。
言語生成パイプラインを計画するためのレシピを提供し、それらの様々なコンポーネントの有効性を示す一連の結論を導き、問題の複雑さに対する堅牢性を示す。
関連論文リスト
- Scaling LLM Planning: NL2FLOW for Parametric Problem Generation and Rigorous Evaluation [0.0]
NL2Flowは計画問題をパラメトリックに生成するための完全に自動化されたシステムである。
自動ワークフロー生成における2296の低微分問題データセットを生成する。
タスク固有の最適化やアーキテクチャの変更なしに、複数のオープンソースでインストラクトしたLLMを評価する。
論文 参考訳(メタデータ) (2025-07-03T03:02:49Z) - Learning to Reason and Navigate: Parameter Efficient Action Planning with Large Language Models [63.765846080050906]
本稿では,大規模言語モデル (PEAP-LLM) を用いたパラメータ効率の高いアクションプランナを提案する。
実験により,提案したREVERIEモデルが従来の最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2025-05-12T12:38:20Z) - An Extensive Evaluation of PDDL Capabilities in off-the-shelf LLMs [11.998185452551878]
大規模言語モデル(LLM)は、コード生成とチェーン・オブ・シークレット推論に習熟している。
本研究では,計画ドメイン定義言語(PDDL)の理解と生成のためのLLMの可能性を評価する。
論文 参考訳(メタデータ) (2025-02-27T15:13:07Z) - Generating Symbolic World Models via Test-time Scaling of Large Language Models [28.258707611580643]
計画ドメイン定義言語(PDDL)は、正確な状態記述と正式な状態記述を可能にする計画抽象化として利用されます。
このアルゴリズムはまず,初期解の品質向上のためにBest-of-Nサンプリング手法を用いる。
本手法はPDDLドメインの生成において, O1-miniよりもかなり優れている。
論文 参考訳(メタデータ) (2025-02-07T07:52:25Z) - On the Limit of Language Models as Planning Formalizers [4.145422873316857]
大規模言語モデルは、接地された環境で検証可能な計画を作成するのに失敗する。
新たな作業のラインは、計画領域の形式表現を生成するフォーマライザとしてLLMを使うことの成功を示しています。
我々は,PDDLとして記述を効果的に定式化できるモデルが十分に大きいことを観察し,それらを直接的に生成する計画よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-12-13T05:50:22Z) - Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - Exploring and Benchmarking the Planning Capabilities of Large Language Models [57.23454975238014]
この研究は、大規模言語モデル(LLM)の計画能力を改善するための基礎を築いた。
我々は、古典的な計画ベンチマークと自然言語シナリオの両方を含む包括的なベンチマークスイートを構築した。
本研究は,LLM計画の強化を目的としたマルチショットインコンテキスト学習について検討し,文脈長の増大と計画性能の向上の関係について検討する。
論文 参考訳(メタデータ) (2024-06-18T22:57:06Z) - From Words to Actions: Unveiling the Theoretical Underpinnings of LLM-Driven Autonomous Systems [59.40480894948944]
大規模言語モデル (LLM) は、物理世界の意思決定問題を解くことができる。
このモデルの下で、LLM Plannerは、プロンプトを介して言語ベースのサブゴールを反復的に生成することにより、部分的に観測可能なマルコフ決定プロセス(POMDP)をナビゲートする。
我々は,事前学習したLLMプランナーが,文脈内学習を通じてベイズ的集計模倣学習(BAIL)を効果的に行うことを証明した。
論文 参考訳(メタデータ) (2024-05-30T09:42:54Z) - Tree-Planner: Efficient Close-loop Task Planning with Large Language Models [63.06270302774049]
Tree-Plannerは、大きな言語モデルでタスクプランニングを3つの異なるフェーズに再構成する。
Tree-Plannerは高い効率を維持しながら最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-12T17:59:50Z) - AdaPlanner: Adaptive Planning from Feedback with Language Models [56.367020818139665]
大規模言語モデル(LLM)は、最近、シーケンシャルな意思決定タスクの自律的エージェントとして機能する可能性を実証している。
本研究では,LLMエージェントが環境フィードバックに応じて自己生成計画を適応的に改善することのできるクローズドループアプローチであるAdaPlannerを提案する。
幻覚を緩和するために,様々なタスク,環境,エージェント機能にまたがる計画生成を容易にするコードスタイルのLCMプロンプト構造を開発した。
論文 参考訳(メタデータ) (2023-05-26T05:52:27Z) - Leveraging Pre-trained Large Language Models to Construct and Utilize
World Models for Model-based Task Planning [39.29964085305846]
事前訓練済みの大規模言語モデルをプランナーとして直接使用する方法は、計画の正確性に限界があるため、現在は実用的ではない。
本研究では,ドメイン定義言語(PDDL)の計画において,明示的な世界(ドメイン)モデルを構築し,ドメインに依存しないプランナで計画する新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-24T08:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。