論文の概要: Scaling Up without Fading Out: Goal-Aware Sparse GNN for RL-based Generalized Planning
- arxiv url: http://arxiv.org/abs/2508.10747v2
- Date: Tue, 19 Aug 2025 12:06:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 13:30:22.876991
- Title: Scaling Up without Fading Out: Goal-Aware Sparse GNN for RL-based Generalized Planning
- Title(参考訳): 失敗せずにスケールアップする:RLに基づく汎用計画のためのゴール認識スパースGNN
- Authors: Sangwoo Jeon, Juchul Shin, Gyeong-Tae Kim, YeonJe Cho, Seongwoo Kim,
- Abstract要約: 深層強化学習とグラフニューラルネットワーク(GNN)を用いた一般的な計画は、様々な象徴的計画領域において有望な結果を示している。
既存のアプローチでは、計画状態が完全に連結されたグラフとして表現され、問題スケールが大きくなるにつれて、エッジ情報や相当な間隔が爆発する。
本稿では, 局所的関係を符号化し, 目的に関連する空間的特徴を明示的に統合する, 疎結合なGNN表現を提案する。
- 参考スコア(独自算出の注目度): 3.5966087153300057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalized planning using deep reinforcement learning (RL) combined with graph neural networks (GNNs) has shown promising results in various symbolic planning domains described by PDDL. However, existing approaches typically represent planning states as fully connected graphs, leading to a combinatorial explosion in edge information and substantial sparsity as problem scales grow, especially evident in large grid-based environments. This dense representation results in diluted node-level information, exponentially increases memory requirements, and ultimately makes learning infeasible for larger-scale problems. To address these challenges, we propose a sparse, goal-aware GNN representation that selectively encodes relevant local relationships and explicitly integrates spatial features related to the goal. We validate our approach by designing novel drone mission scenarios based on PDDL within a grid world, effectively simulating realistic mission execution environments. Our experimental results demonstrate that our method scales effectively to larger grid sizes previously infeasible with dense graph representations and substantially improves policy generalization and success rates. Our findings provide a practical foundation for addressing realistic, large-scale generalized planning tasks.
- Abstract(参考訳): 深部強化学習(RL)とグラフニューラルネットワーク(GNN)を併用した汎用プランニングは,PDDLで記述された様々な象徴的プランニング領域において有望な結果を示した。
しかし、既存のアプローチは計画状態を完全に連結されたグラフとして表現し、特に大きなグリッドベースの環境において、エッジ情報の組合せ的な爆発と、問題スケールが大きくなるにつれてかなりの空間性をもたらす。
この濃密な表現は、希薄なノードレベル情報をもたらし、指数関数的にメモリ要求を増大させ、最終的には大規模問題に対して学習を不可能にする。
これらの課題に対処するため、我々は、局所的な関係を選択的に符号化し、目標に関連する空間的特徴を明示的に統合する、スパースでゴール対応のGNN表現を提案する。
我々は、グリッドの世界におけるPDDLに基づく新しいドローンミッションシナリオを設計し、現実的なミッション実行環境を効果的にシミュレートすることで、我々のアプローチを検証する。
実験の結果,従来のグラフ表現では実現不可能であったグリッドサイズに効果的にスケールし,政策の一般化と成功率を大幅に向上することが示された。
本研究は,現実的な大規模計画課題に対処するための実践的基盤を提供する。
関連論文リスト
- ScaleGNN: Towards Scalable Graph Neural Networks via Adaptive High-order Neighboring Feature Fusion [37.22772892623285]
スケーラブルで効果的なグラフ学習のためのマルチホップノード機能を適応的に融合する新しいフレームワークであるScaleGNNを提案する。
予測精度と計算効率の両面で,ScaleGNNは最先端のGNNよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2025-04-22T14:05:11Z) - Can Graph Learning Improve Planning in LLM-based Agents? [61.47027387839096]
言語エージェントにおけるタスクプランニングは、大規模言語モデル(LLM)の開発とともに重要な研究トピックとして浮上している。
本稿では,課題計画のためのグラフ学習に基づく手法について検討する。
我々のグラフ学習への関心は、注意のバイアスと自己回帰的損失が、グラフ上の意思決定を効果的にナビゲートするLLMの能力を妨げているという理論的な発見に起因している。
論文 参考訳(メタデータ) (2024-05-29T14:26:24Z) - LightDiC: A Simple yet Effective Approach for Large-scale Digraph
Representation Learning [42.72417353512392]
磁気ラプラシアンに基づくダイグラフ畳み込みのスケーラブルな変種であるLightDiCを提案する。
LightDiCは、最も代表的な大規模データベースで満足な結果を提供する最初のDiGNNである。
論文 参考訳(メタデータ) (2024-01-22T09:09:10Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。