論文の概要: GenePlan: Evolving Better Generalized PDDL Plans using Large Language Models
- arxiv url: http://arxiv.org/abs/2603.09481v1
- Date: Tue, 10 Mar 2026 10:32:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.234481
- Title: GenePlan: Evolving Better Generalized PDDL Plans using Large Language Models
- Title(参考訳): GenePlan: 大規模言語モデルによるPDDL計画の改善
- Authors: Andrew Murray, Danial Dervovic, Alberto Pozanco, Michael Cashmore,
- Abstract要約: 我々は,大規模言語モデル(LLM)を利用してドメイン依存の汎用プランナを生成する新しいフレームワークであるGenePlanを提案する。
GenePlanは、さまざまな問題インスタンスにおけるプラン長を最小限に抑える解釈可能なPythonプランナを反復的に進化させる。
実証的な評価では、GenePlanは平均SATスコア0.91を達成し、最先端のプランナーの性能と密接に一致した。
- 参考スコア(独自算出の注目度): 4.400420377775205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present GenePlan (GENeralized Evolutionary Planner), a novel framework that leverages large language model (LLM) assisted evolutionary algorithms to generate domain-dependent generalized planners for classical planning tasks described in PDDL. By casting generalized planning as an optimization problem, GenePlan iteratively evolves interpretable Python planners that minimize plan length across diverse problem instances. In empirical evaluation across six existing benchmark domains and two new domains, GenePlan achieved an average SAT score of 0.91, closely matching the performance of the state-of-the-art planners (SAT score 0.93), and significantly outperforming other LLM-based baselines such as chain-of-thought (CoT) prompting (average SAT score 0.64). The generated planners solve new instances rapidly (average 0.49 seconds per task) and at low cost (average $1.82 per domain using GPT-4o).
- Abstract(参考訳): 我々は、大規模言語モデル(LLM)を利用した進化的アルゴリズムを利用して、PDDLで記述された古典的計画タスクのためのドメイン依存の汎用プランナーを生成する新しいフレームワークであるGenePlan(GenePlan)を提案する。
最適化問題として一般化されたプランニングをキャストすることで、GenePlanは様々な問題インスタンスにおけるプラン長を最小限に抑える解釈可能なPythonプランナーを反復的に進化させる。
既存の6つのベンチマークドメインと2つの新しいドメインの実証的な評価において、GenePlanは平均SATスコア0.91を達成し、最先端のプランナー(SATスコア0.93)のパフォーマンスと密に一致し、チェーン・オブ・シント(CoT)のプロンプト(SATスコア0.64)など他のLCMベースのベースラインを著しく上回った。
生成されたプランナーは、新しいインスタンスを迅速に(タスク当たり平均0.49秒)、低コスト(GPT-4oを使用してドメイン当たり平均1.82ドル)で解決する。
関連論文リスト
- Hierarchical LLM-Based Multi-Agent Framework with Prompt Optimization for Multi-Robot Task Planning [0.9453554184019106]
マルチロボットタスクプランニングでは、自然言語命令を実行可能なアクションに分解する必要がある。
PDDLプランナーは厳格な保証を提供するが、曖昧な任務や長期の任務を扱うのに苦労する。
高速な最適化が可能な階層型マルチエージェントLSMベースのプランナを提案する。
論文 参考訳(メタデータ) (2026-02-25T08:08:26Z) - TodoEvolve: Learning to Architect Agent Planning Systems [68.48983335970901]
TodoEvolveは、タスク固有の計画を自律的に合成し、動的に修正するメタプランニングパラダイムである。
PlanFactoryは異種計画パターンの共通インターフェースを提供する。
TodoEvolveは、経済的なAPIコストとランタイムオーバーヘッドを維持しながら、慎重に設計された計画モジュールを一貫して上回っている。
論文 参考訳(メタデータ) (2026-02-08T06:37:01Z) - Improved Generalized Planning with LLMs through Strategy Refinement and Reflection [58.79806530685551]
疑似コードの形で戦略を生成する手法を提案する。
我々は、Pythonデバッグフェーズをリフレクションステップで拡張し、LLMが観測された計画失敗の理由を特定できるようにする。
17のベンチマーク領域で実験を行い、これらの拡張によって一般化された計画の品質が大幅に向上することを示した。
論文 参考訳(メタデータ) (2025-08-19T14:42:18Z) - PLAN-TUNING: Post-Training Language Models to Learn Step-by-Step Planning for Complex Problem Solving [66.42260489147617]
大規模言語モデルから合成タスク分解を蒸留するフレームワークであるPLAN-TUNINGを紹介する。
複雑な推論を改善するために、教師付きおよび強化学習の目的を通したプランチューン細管モデル。
本分析は,計画軌道が複雑な推論能力をいかに改善するかを示す。
論文 参考訳(メタデータ) (2025-07-10T07:30:44Z) - Exploring and Benchmarking the Planning Capabilities of Large Language Models [57.23454975238014]
この研究は、大規模言語モデル(LLM)の計画能力を改善するための基礎を築いた。
我々は、古典的な計画ベンチマークと自然言語シナリオの両方を含む包括的なベンチマークスイートを構築した。
本研究は,LLM計画の強化を目的としたマルチショットインコンテキスト学習について検討し,文脈長の増大と計画性能の向上の関係について検討する。
論文 参考訳(メタデータ) (2024-06-18T22:57:06Z) - AdaPlanner: Adaptive Planning from Feedback with Language Models [56.367020818139665]
大規模言語モデル(LLM)は、最近、シーケンシャルな意思決定タスクの自律的エージェントとして機能する可能性を実証している。
本研究では,LLMエージェントが環境フィードバックに応じて自己生成計画を適応的に改善することのできるクローズドループアプローチであるAdaPlannerを提案する。
幻覚を緩和するために,様々なタスク,環境,エージェント機能にまたがる計画生成を容易にするコードスタイルのLCMプロンプト構造を開発した。
論文 参考訳(メタデータ) (2023-05-26T05:52:27Z) - A Framework for Neurosymbolic Robot Action Planning using Large Language Models [3.0501524254444767]
本稿では,象徴的タスク計画と機械学習アプローチのギャップを埋めることを目的としたフレームワークを提案する。
大規模言語モデル(LLM)を計画ドメイン定義言語(PDDL)と互換性のあるニューロシンボリックタスクプランナーに訓練する根拠
選択されたドメインにおける予備的な結果から, (i) テストデータセットの95.5%の問題を1,000個のサンプルで解決し, (ii) 従来のシンボルプランナーよりも最大13.5%短いプランを作成し, (iii) 計画の可利用性の平均待ち時間を61.4%まで削減する。
論文 参考訳(メタデータ) (2023-03-01T11:54:22Z) - Divide-and-Conquer Monte Carlo Tree Search For Goal-Directed Planning [78.65083326918351]
暗黙的な逐次計画の仮定に代わるものを検討する。
本稿では,最適計画の近似を行うため,Divide-and-Conquer Monte Carlo Tree Search (DC-MCTS)を提案する。
計画順序に対するこのアルゴリズム的柔軟性は,グリッドワールドにおけるナビゲーションタスクの改善に繋がることを示す。
論文 参考訳(メタデータ) (2020-04-23T18:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。