論文の概要: Semantic Partial Grounding via LLMs
- arxiv url: http://arxiv.org/abs/2602.22067v1
- Date: Wed, 25 Feb 2026 16:13:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.901351
- Title: Semantic Partial Grounding via LLMs
- Title(参考訳): LLMによる意味的部分接地
- Authors: Giuseppe Canonaco, Alberto Pozanco, Daniel Borrajo,
- Abstract要約: 接地は古典的な計画において重要なステップであるが、タスクサイズが増加するにつれて、接地された行動や原子が指数関数的に増加するため、しばしば計算ボトルネックとなる。
SPG-LLMは、LLMを用いてドメインと問題ファイルを解析し、グラウンド前に、潜在的に無関係なオブジェクト、アクション、述語を識別する。
- 参考スコア(独自算出の注目度): 5.61123152362224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grounding is a critical step in classical planning, yet it often becomes a computational bottleneck due to the exponential growth in grounded actions and atoms as task size increases. Recent advances in partial grounding have addressed this challenge by incrementally grounding only the most promising operators, guided by predictive models. However, these approaches primarily rely on relational features or learned embeddings and do not leverage the textual and structural cues present in PDDL descriptions. We propose SPG-LLM, which uses LLMs to analyze the domain and problem files to heuristically identify potentially irrelevant objects, actions, and predicates prior to grounding, significantly reducing the size of the grounded task. Across seven hard-to-ground benchmarks, SPG-LLM achieves faster grounding-often by orders of magnitude-while delivering comparable or better plan costs in some domains.
- Abstract(参考訳): 接地は古典的な計画において重要なステップであるが、タスクサイズが増加するにつれて、接地された行動や原子が指数関数的に増加するため、しばしば計算ボトルネックとなる。
部分接地法の最近の進歩は、予測モデルによって導かれる最も有望な作用素のみを漸進的に接地することでこの問題に対処している。
しかし、これらのアプローチは主にリレーショナルな特徴や学習された埋め込みに依存しており、PDDL記述にあるテキストや構造的手がかりは利用していない。
SPG-LLMは、LLMを用いてドメインと問題ファイルを分析し、グラウンド化前の潜在的に無関係なオブジェクト、アクション、述語をヒューリスティックに識別し、グラウンド化タスクのサイズを大幅に削減する。
SPG-LLMは、7つのハード・ツー・グラウンドのベンチマークで、いくつかのドメインで同等またはより良い計画コストを納品しながら、桁違いに高速なグラウンド・オブ・ザ・グラウンドを達成する。
関連論文リスト
- Unifying Search and Recommendation in LLMs via Gradient Multi-Subspace Tuning [33.69176756907003]
Gradient Multi-Subspace Tuning (GEMS)は、検索とレコメンデーションタスクを統合する新しいフレームワークである。
GEMSは検索タスクとレコメンデーションタスクの両方において、最先端のベースラインを一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2026-01-14T14:03:07Z) - PLAN-TUNING: Post-Training Language Models to Learn Step-by-Step Planning for Complex Problem Solving [66.42260489147617]
大規模言語モデルから合成タスク分解を蒸留するフレームワークであるPLAN-TUNINGを紹介する。
複雑な推論を改善するために、教師付きおよび強化学習の目的を通したプランチューン細管モデル。
本分析は,計画軌道が複雑な推論能力をいかに改善するかを示す。
論文 参考訳(メタデータ) (2025-07-10T07:30:44Z) - Learning Hierarchical Domain Models Through Environment-Grounded Interaction [14.98687521721637]
オープンワールド環境では、単一の汎用ドメインモデルは様々なタスクをキャプチャできない。
大きな言語モデル(LLM)はそのようなドメインを生成することができるが、適用性を制限する高いエラー率に悩まされる。
LLMと環境基盤からの自律的ドメイン学習のためのフレームワークであるLODGEを提案する。
論文 参考訳(メタデータ) (2025-05-15T20:23:21Z) - Mitigating Forgetting in LLM Fine-Tuning via Low-Perplexity Token Learning [65.23593936798662]
LLM生成データによる微調整により,目標タスクの性能が向上し,非目標タスクの劣化が低減されることを示す。
微調整後のLSMにおける破滅的忘れを緩和するために、トークンの難易度低減に基づく経験的説明を提供する最初の研究である。
論文 参考訳(メタデータ) (2025-01-24T08:18:56Z) - ET-Plan-Bench: Embodied Task-level Planning Benchmark Towards Spatial-Temporal Cognition with Foundation Models [38.89166693142495]
ET-Plan-Benchは、Large Language Models (LLMs) を用いたタスク計画の具体化のためのベンチマークである。
様々な難易度や複雑さのレベルにおいて、制御可能で多様な実施タスクが特徴である。
我々のベンチマークでは、大規模で定量化され、高度に自動化され、きめ細かな診断フレームワークとして認識されている。
論文 参考訳(メタデータ) (2024-10-02T19:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。