論文の概要: Abstraction Generation for Generalized Planning with Pretrained Large Language Models
- arxiv url: http://arxiv.org/abs/2602.10485v1
- Date: Wed, 11 Feb 2026 03:44:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.435663
- Title: Abstraction Generation for Generalized Planning with Pretrained Large Language Models
- Title(参考訳): 事前学習された大言語モデルを用いた一般化計画のための抽象化生成
- Authors: Zhenhe Cui, Huaxiang Xia, Hangjun Shen, Kailun Luo, Yong He, Wei Liang,
- Abstract要約: 本研究では,大規模言語モデル(LLM)が一般化計画問題に対してQNP抽象化ジェネレータとして機能するかどうかを検討する。
GPドメインを入力し、LLMにタスクをトレーニングし、抽象的な特徴を生成し、初期状態、アクションセット、ゴールをQNP問題に抽象化するプロンプトプロトコルを提案する。
- 参考スコア(独自算出の注目度): 10.816527886971135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Qualitative Numerical Planning (QNP) serves as an important abstraction model for generalized planning (GP), which aims to compute general plans that solve multiple instances at once. Recent works show that large language models (LLMs) can function as generalized planners. This work investigates whether LLMs can serve as QNP abstraction generators for GP problems and how to fix abstractions via automated debugging. We propose a prompt protocol: input a GP domain and training tasks to LLMs, prompting them to generate abstract features and further abstract the initial state, action set, and goal into QNP problems. An automated debugging method is designed to detect abstraction errors, guiding LLMs to fix abstractions. Experiments demonstrate that under properly guided by automated debugging, some LLMs can generate useful QNP abstractions.
- Abstract(参考訳): 定性的数値計画(QNP)は、複数のインスタンスを一度に解決する一般的な計画を計算することを目的とした一般化計画(GP)の重要な抽象モデルとして機能する。
近年の研究では,大規模言語モデル (LLM) が一般化プランナーとして機能することが示されている。
本研究では,GP問題に対するQNP抽象化ジェネレータとしてLLMが有効であるかどうか,自動デバッグによる抽象化の修正方法について検討する。
GPドメインを入力し、LLMにタスクをトレーニングし、抽象的な特徴を生成し、初期状態、アクションセット、ゴールをQNP問題に抽象化するプロンプトプロトコルを提案する。
自動デバッギング手法は、抽象化エラーを検出し、LLMを抽象化の修正に導くように設計されている。
自動デバッグによって適切にガイドされている場合、一部のLLMは有用なQNP抽象化を生成することができる。
関連論文リスト
- Using Large Language Models for Abstraction of Planning Domains - Extended Version [6.021787236982658]
PDDLにおけるエージェントの具体的な振る舞いをモデル化し、大規模言語モデル(LLM)を用いた文脈内学習の利用について検討する。
代替具体的なアクションの選択の抽象化、具体的なアクションのシーケンスの抽象化、アクション/述語パラメータの抽象化の3つのカテゴリについて検討する。
生成された抽象PDDLドメインと問題インスタンスは、シンボル検証ツールと人間の専門家によってチェックされる。
論文 参考訳(メタデータ) (2025-10-23T06:27:03Z) - RLAD: Training LLMs to Discover Abstractions for Solving Reasoning Problems [98.98963933669751]
問題が発生したら、複数の抽象化を提案できるモデルをトレーニングし、続いてソリューション構築のインセンティブを与えるRLを作ります。
この結果、RLトレーニングパラダイムはRLADと呼ばれ、抽象化ジェネレータとソリューションジェネレータを共同で訓練する。
我々は、大規模なテスト予算で多くのソリューションを生成するよりも、より多くのテスト時間計算を抽象化の生成に割り当てることが、パフォーマンスに有益であることを示しています。
論文 参考訳(メタデータ) (2025-10-02T17:44:23Z) - Improved Generalized Planning with LLMs through Strategy Refinement and Reflection [58.79806530685551]
疑似コードの形で戦略を生成する手法を提案する。
我々は、Pythonデバッグフェーズをリフレクションステップで拡張し、LLMが観測された計画失敗の理由を特定できるようにする。
17のベンチマーク領域で実験を行い、これらの拡張によって一般化された計画の品質が大幅に向上することを示した。
論文 参考訳(メタデータ) (2025-08-19T14:42:18Z) - Self-Steering Language Models [113.96916935955842]
DisCIPL は "self-steering" 言語モデル (LM) の手法である。
DisCIPLは、Followerモデルの集団によって実行されるタスク固有の推論プログラムを生成する。
我々の研究は、高度に並列化されたモンテカルロ推論戦略の設計空間を開く。
論文 参考訳(メタデータ) (2025-04-09T17:54:22Z) - Coupling Large Language Models with Logic Programming for Robust and
General Reasoning from Text [5.532477732693001]
大規模言語モデルは, 意味論的に非常に効果的な数ショットとして機能することを示す。
自然言語文を論理形式に変換し、応答集合プログラムの入力として機能する。
本手法は,bAbI, StepGame, CLUTRR, gSCAN など,いくつかのベンチマークにおいて最先端性能を実現する。
論文 参考訳(メタデータ) (2023-07-15T03:29:59Z) - Plan, Eliminate, and Track -- Language Models are Good Teachers for
Embodied Agents [99.17668730578586]
事前訓練された大言語モデル(LLM)は、世界に関する手続き的な知識をキャプチャする。
Plan, Eliminate, and Track (PET)フレームワークはタスク記述をハイレベルなサブタスクのリストに変換する。
PETフレームワークは、人間の目標仕様への一般化のために、SOTAよりも15%改善されている。
論文 参考訳(メタデータ) (2023-05-03T20:11:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。