論文の概要: Towards a General Framework for HTN Modeling with LLMs
- arxiv url: http://arxiv.org/abs/2511.18165v1
- Date: Sat, 22 Nov 2025 19:27:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.665518
- Title: Towards a General Framework for HTN Modeling with LLMs
- Title(参考訳): LLMを用いたHTNモデリングのための汎用フレームワーク
- Authors: Israel Puerta-Merino, Carlos Núñez-Molina, Pablo Mesejo, Juan Fernández-Olivares,
- Abstract要約: 我々は,HPモデル生成をサポートするL2Pの拡張であるL2HPを提案し,汎用性と拡張性の設計哲学に従う。
その結果,構文的妥当性は階層的な場合において著しく低いが,解析的成功は両設定で同等であることがわかった。
これらの結果は,HP が LLM に対して提示するユニークな課題を浮き彫りにし,HP モデルの品質向上に向けたさらなる研究の必要性を強調した。
- 参考スコア(独自算出の注目度): 7.1245694975860125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of Large Language Models (LLMs) for generating Automated Planning (AP) models has been widely explored; however, their application to Hierarchical Planning (HP) is still far from reaching the level of sophistication observed in non-hierarchical architectures. In this work, we try to address this gap. We present two main contributions. First, we propose L2HP, an extension of L2P (a library to LLM-driven PDDL models generation) that support HP model generation and follows a design philosophy of generality and extensibility. Second, we apply our framework to perform experiments where we compare the modeling capabilities of LLMs for AP and HP. On the PlanBench dataset, results show that parsing success is limited but comparable in both settings (around 36\%), while syntactic validity is substantially lower in the hierarchical case (1\% vs. 20\% of instances). These findings underscore the unique challenges HP presents for LLMs, highlighting the need for further research to improve the quality of generated HP models.
- Abstract(参考訳): 大規模言語モデル(LLM)を用いて自動計画(AP)モデルを生成する方法が広く研究されているが、階層的計画(HP)への適用は、階層的でないアーキテクチャで見られる高度なレベルには程遠い。
この作業では、このギャップに対処しようとします。
主な貢献は2つある。
まず、L2P(LLM駆動のPDDLモデル生成ライブラリ)の拡張であるL2HPを提案し、HPモデル生成をサポートし、汎用性と拡張性の設計哲学に従う。
第2に,本フレームワークを実験に応用し,AP と HP の LLM のモデリング能力を比較する。
PlanBenchデータセットでは、解析成功は制限されているが、両方の設定(約36 %)で比較できるが、階層的な場合(インスタンスの1 % vs. 20 %)では構文的妥当性は著しく低い。
これらの結果は,HP が LLM に対して提示するユニークな課題を浮き彫りにし,HP モデルの品質向上に向けたさらなる研究の必要性を強調した。
関連論文リスト
- A Roadmap to Guide the Integration of LLMs in Hierarchical Planning [8.399688944263843]
階層型計画(HP)におけるLLM(Large Language Models)の可能性を活用するためのロードマップを提案する。
本稿では,HP ライフサイクルにおいて LLM をどのように活用できるかを考察する統合手法の分類法を提案する。
我々は、将来のLCMベースのHPアプローチの性能を評価するための標準化されたデータセットを用いたベンチマークを提供する。
論文 参考訳(メタデータ) (2025-01-14T12:34:25Z) - Adaptive Pruning for Large Language Models with Structural Importance Awareness [66.2690963378878]
大規模言語モデル(LLM)は言語理解と生成能力を大幅に改善した。
LLMは、高い計算およびストレージリソース要求のため、リソース制約のあるエッジデバイスにデプロイするのは難しい。
モデル性能を維持しつつ,計算コストとメモリコストを大幅に削減する構造的適応型プルーニング(SAAP)を提案する。
論文 参考訳(メタデータ) (2024-12-19T18:08:04Z) - Learning to Plan for Retrieval-Augmented Large Language Models from Knowledge Graphs [59.76268575344119]
知識グラフ(KG)から得られた計画データを用いて,大規模言語モデル(LLM)計画能力を向上するための新しいフレームワークを提案する。
KGデータで微調整されたLLMは、計画能力を向上し、検索を含む複雑なQAタスクを処理するのがより適している。
論文 参考訳(メタデータ) (2024-06-20T13:07:38Z) - Hierarchical Prompting Taxonomy: A Universal Evaluation Framework for Large Language Models Aligned with Human Cognitive Principles [1.8853906324722882]
本稿では,人間の認知原理に基づく階層型確率分類(HPT)について述べる。
様々なタスクの認知的要求を調べることにより、大規模言語モデル(LLM)を評価するように設計されている。
タスクの複雑さを階層的プロンプト指数(HPI)で評価し、LLMの認知能力を示す。
論文 参考訳(メタデータ) (2024-06-18T14:12:27Z) - A Framework to Implement 1+N Multi-task Fine-tuning Pattern in LLMs
Using the CGC-LORA Algorithm [7.521690071464451]
大規模言語モデル (LLM) において, 1 + N mutli-task の微調整パターンを実装する統一フレームワークを提案する。
我々の研究は、MPL(CGC)とPEFT(LoRA)の両方の利点を享受することを目的としている。
論文 参考訳(メタデータ) (2024-01-22T07:58:31Z) - Knowledge Fusion of Large Language Models [73.28202188100646]
本稿では,大規模言語モデル(LLM)における知識融合の概念を紹介する。
我々は、それらの集合的知識と独特な強みを外部化し、それによってターゲットモデルの能力が、どのソースLLMよりも高められるようにします。
この結果から,LLMの融合により,推論やコモンセンス,コード生成など,対象モデルの性能が向上することが確認された。
論文 参考訳(メタデータ) (2024-01-19T05:02:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。