論文の概要: Semantic Partial Grounding via LLMs
- arxiv url: http://arxiv.org/abs/2602.22067v1
- Date: Wed, 25 Feb 2026 16:13:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.901351
- Title: Semantic Partial Grounding via LLMs
- Title(参考訳): LLMによる意味的部分接地
- Authors: Giuseppe Canonaco, Alberto Pozanco, Daniel Borrajo,
- Abstract要約: 接地は古典的な計画において重要なステップであるが、タスクサイズが増加するにつれて、接地された行動や原子が指数関数的に増加するため、しばしば計算ボトルネックとなる。
SPG-LLMは、LLMを用いてドメインと問題ファイルを解析し、グラウンド前に、潜在的に無関係なオブジェクト、アクション、述語を識別する。
- 参考スコア(独自算出の注目度): 5.61123152362224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grounding is a critical step in classical planning, yet it often becomes a computational bottleneck due to the exponential growth in grounded actions and atoms as task size increases. Recent advances in partial grounding have addressed this challenge by incrementally grounding only the most promising operators, guided by predictive models. However, these approaches primarily rely on relational features or learned embeddings and do not leverage the textual and structural cues present in PDDL descriptions. We propose SPG-LLM, which uses LLMs to analyze the domain and problem files to heuristically identify potentially irrelevant objects, actions, and predicates prior to grounding, significantly reducing the size of the grounded task. Across seven hard-to-ground benchmarks, SPG-LLM achieves faster grounding-often by orders of magnitude-while delivering comparable or better plan costs in some domains.
- Abstract(参考訳): 接地は古典的な計画において重要なステップであるが、タスクサイズが増加するにつれて、接地された行動や原子が指数関数的に増加するため、しばしば計算ボトルネックとなる。
部分接地法の最近の進歩は、予測モデルによって導かれる最も有望な作用素のみを漸進的に接地することでこの問題に対処している。
しかし、これらのアプローチは主にリレーショナルな特徴や学習された埋め込みに依存しており、PDDL記述にあるテキストや構造的手がかりは利用していない。
SPG-LLMは、LLMを用いてドメインと問題ファイルを分析し、グラウンド化前の潜在的に無関係なオブジェクト、アクション、述語をヒューリスティックに識別し、グラウンド化タスクのサイズを大幅に削減する。
SPG-LLMは、7つのハード・ツー・グラウンドのベンチマークで、いくつかのドメインで同等またはより良い計画コストを納品しながら、桁違いに高速なグラウンド・オブ・ザ・グラウンドを達成する。
関連論文リスト
- Unifying Search and Recommendation in LLMs via Gradient Multi-Subspace Tuning [33.69176756907003]
Gradient Multi-Subspace Tuning (GEMS)は、検索とレコメンデーションタスクを統合する新しいフレームワークである。
GEMSは検索タスクとレコメンデーションタスクの両方において、最先端のベースラインを一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2026-01-14T14:03:07Z) - STReasoner: Empowering LLMs for Spatio-Temporal Reasoning in Time Series via Spatial-Aware Reinforcement Learning [16.11676643415448]
時系列における時空間推論には、時間力学、空間依存、テキストコンテキストの明示的な合成が含まれる。
この能力は、交通ネットワークや電力網、病気の伝播といったシステムにおける高い意思決定に不可欠である。
このギャップに対処するために、エチオロジー推論、エンティティ識別、相関推論、コンテキスト内予測を含む4つのコアタスクからなるベンチマークであるST-Benchを導入する。
次に,STReasonerを提案し,LLMが時系列,グラフ構造,テキストを明示的な推論のために統合できるようにする。
論文 参考訳(メタデータ) (2026-01-06T18:46:12Z) - CausalPlan: Empowering Efficient LLM Multi-Agent Collaboration Through Causality-Driven Planning [25.322580535468013]
CausalPlanは、明示的な構造因果推論を大規模言語モデル(LLM)計画プロセスに統合するフレームワークである。
我々は,5つのマルチエージェント調整タスクと4つのLLMの異なるサイズで,Overcooked-AIベンチマークでCausalPlanを評価した。
その結果、CausalPlanは不適切なアクションを一貫して削減し、AI-AIとヒューマン-AI設定の両方でのコラボレーションを改善していることがわかった。
論文 参考訳(メタデータ) (2025-08-19T10:37:20Z) - PLAN-TUNING: Post-Training Language Models to Learn Step-by-Step Planning for Complex Problem Solving [66.42260489147617]
大規模言語モデルから合成タスク分解を蒸留するフレームワークであるPLAN-TUNINGを紹介する。
複雑な推論を改善するために、教師付きおよび強化学習の目的を通したプランチューン細管モデル。
本分析は,計画軌道が複雑な推論能力をいかに改善するかを示す。
論文 参考訳(メタデータ) (2025-07-10T07:30:44Z) - ReGUIDE: Data Efficient GUI Grounding via Spatial Reasoning and Search [53.40810298627443]
ReGUIDEは、MLLMが自己生成的推論と空間認識的批判を通じてデータを効率的に学習することを可能にするWebグラウンドのためのフレームワークである。
実験により、ReGUIDEは複数のベンチマークでWebグラウンド性能を大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-05-21T08:36:18Z) - Learning Hierarchical Domain Models Through Environment-Grounded Interaction [14.98687521721637]
オープンワールド環境では、単一の汎用ドメインモデルは様々なタスクをキャプチャできない。
大きな言語モデル(LLM)はそのようなドメインを生成することができるが、適用性を制限する高いエラー率に悩まされる。
LLMと環境基盤からの自律的ドメイン学習のためのフレームワークであるLODGEを提案する。
論文 参考訳(メタデータ) (2025-05-15T20:23:21Z) - Learning to Reason and Navigate: Parameter Efficient Action Planning with Large Language Models [63.765846080050906]
本稿では,大規模言語モデル (PEAP-LLM) を用いたパラメータ効率の高いアクションプランナを提案する。
実験により,提案したREVERIEモデルが従来の最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2025-05-12T12:38:20Z) - Mitigating Forgetting in LLM Fine-Tuning via Low-Perplexity Token Learning [65.23593936798662]
LLM生成データによる微調整により,目標タスクの性能が向上し,非目標タスクの劣化が低減されることを示す。
微調整後のLSMにおける破滅的忘れを緩和するために、トークンの難易度低減に基づく経験的説明を提供する最初の研究である。
論文 参考訳(メタデータ) (2025-01-24T08:18:56Z) - Aggregation Artifacts in Subjective Tasks Collapse Large Language Models' Posteriors [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理の主要な手法となっている。
本研究は,低アグリゲーション,異質なアノテーションを組み合わせたアグリゲーションの結果が,プロンプトに有害なノイズを生じさせるアノテーションのアーティファクトに繋がるかどうかを考察する。
この結果から,アグリゲーションは主観的タスクのモデル化において不明瞭な要因であり,代わりに個人をモデリングすることを重視することが示唆された。
論文 参考訳(メタデータ) (2024-10-17T17:16:00Z) - ET-Plan-Bench: Embodied Task-level Planning Benchmark Towards Spatial-Temporal Cognition with Foundation Models [38.89166693142495]
ET-Plan-Benchは、Large Language Models (LLMs) を用いたタスク計画の具体化のためのベンチマークである。
様々な難易度や複雑さのレベルにおいて、制御可能で多様な実施タスクが特徴である。
我々のベンチマークでは、大規模で定量化され、高度に自動化され、きめ細かな診断フレームワークとして認識されている。
論文 参考訳(メタデータ) (2024-10-02T19:56:38Z) - Plan, Eliminate, and Track -- Language Models are Good Teachers for
Embodied Agents [99.17668730578586]
事前訓練された大言語モデル(LLM)は、世界に関する手続き的な知識をキャプチャする。
Plan, Eliminate, and Track (PET)フレームワークはタスク記述をハイレベルなサブタスクのリストに変換する。
PETフレームワークは、人間の目標仕様への一般化のために、SOTAよりも15%改善されている。
論文 参考訳(メタデータ) (2023-05-03T20:11:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。