論文の概要: The Value of Goal Commitment in Planning
- arxiv url: http://arxiv.org/abs/2503.09545v1
- Date: Wed, 12 Mar 2025 17:00:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:39:29.533319
- Title: The Value of Goal Commitment in Planning
- Title(参考訳): 計画におけるゴールコミットメントの価値
- Authors: Alberto Pozanco, Marianela Morales, Daniel Borrajo, Manuela Veloso,
- Abstract要約: 達成した特定の目標の永続化を強制するコミットアクションにより、当初の計画タスクを拡張するコンパイルを提案する。
このアプローチは、検索ツリーの一部、潜在的にデッドエンド状態を導入する際に、特定の目標達成順序を課す。
実験結果は、改革されたタスクが最先端のアジャイルプランナーに適していることを示している。
- 参考スコア(独自算出の注目度): 9.722824469961925
- License:
- Abstract: In this paper, we revisit the concept of goal commitment from early planners in the presence of current forward chaining heuristic planners. We present a compilation that extends the original planning task with commit actions that enforce the persistence of specific goals once achieved, thereby committing to them in the search sub-tree. This approach imposes a specific goal achievement order in parts of the search tree, potentially introducing dead-end states. This can reduce search effort if the goal achievement order is correct. Otherwise, the search algorithm can expand nodes in the open list where goals do not persist. Experimental results demonstrate that the reformulated tasks suit state-of-the-art agile planners, enabling them to find better
- Abstract(参考訳): 本稿では,現在の前方連鎖型ヒューリスティックプランナーの存在下での早期プランナーの目標コミットメントの概念を再考する。
本稿では,当初達成した特定の目標の持続性を強制するコミットアクションを用いて,当初の計画課題を拡張したコンパイルを行い,検索サブツリーにコミットする。
このアプローチは、検索ツリーの一部に特定の目標達成順序を課し、デッドエンド状態を導入する可能性がある。
これにより、目標達成順序が正しければ探索労力を削減できる。
さもなくば、探索アルゴリズムは、ゴールが持続しないオープンリストのノードを拡張することができる。
実験の結果、改革されたタスクは最先端のアジャイルプランナーに適していることが示され、より良く見つけられるようになった。
関連論文リスト
- Hybrid Search for Efficient Planning with Completeness Guarantees [63.02803974708516]
本稿では,離散的な行動空間における完全性を実現するために,部分ゴール探索法を効果的に拡張する手法を提案する。
このソリューションは、高レベルの探索の実践的効率と低レベルの探索の完全性という、両方の世界のベストを達成している。
論文 参考訳(メタデータ) (2023-10-19T15:16:43Z) - Take a Break in the Middle: Investigating Subgoals towards Hierarchical
Script Generation [41.79944184861954]
目標指向のスクリプト生成は、与えられた目標を達成するためのステップのリストを生成する新しいタスクである。
本稿では,認知理論の観点からタスクを拡張することを提案する。
論文 参考訳(メタデータ) (2023-05-18T12:10:06Z) - Imitating Graph-Based Planning with Goal-Conditioned Policies [72.61631088613048]
本稿では,目標目標条件ポリシにサブゴール条件ポリシを蒸留する自己シミュレーション方式を提案する。
提案手法は,既存の目標条件付きRL手法のサンプル効率を大幅に向上させることができることを実証的に示す。
論文 参考訳(メタデータ) (2023-03-20T14:51:10Z) - Discrete Factorial Representations as an Abstraction for Goal
Conditioned Reinforcement Learning [99.38163119531745]
離散化ボトルネックを適用することにより,目標条件付きRLセットアップの性能が向上することを示す。
分布外目標に対する期待した回帰を実験的に証明し、同時に表現的な構造で目標を指定できるようにします。
論文 参考訳(メタデータ) (2022-11-01T03:31:43Z) - C-Planning: An Automatic Curriculum for Learning Goal-Reaching Tasks [133.40619754674066]
ゴール条件強化学習は、ナビゲーションや操作を含む幅広い領域のタスクを解決できる。
本研究では,学習時間における探索を用いて,中間状態を自動生成する遠隔目標獲得タスクを提案する。
E-stepはグラフ検索を用いて最適な経路点列を計画することに対応し、M-stepはそれらの経路点に到達するための目標条件付きポリシーを学習することを目的としている。
論文 参考訳(メタデータ) (2021-10-22T22:05:31Z) - Maximum Entropy Gain Exploration for Long Horizon Multi-goal
Reinforcement Learning [35.44552072132894]
学習エージェントは、歴史的達成目標分布のエントロピーを最大化する固有の目標を設定するべきである。
本研究の戦略は, 長期多目標課題における先行技術よりも, はるかに優れたサンプリング効率を達成できることが示される。
論文 参考訳(メタデータ) (2020-07-06T15:36:05Z) - Long-Horizon Visual Planning with Goal-Conditioned Hierarchical
Predictors [124.30562402952319]
未来に予測し、計画する能力は、世界で行動するエージェントにとって基本である。
視覚的予測と計画のための現在の学習手法は、長期的タスクでは失敗する。
本稿では,これらの制約を克服可能な視覚的予測と計画のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-23T17:58:56Z) - Divide-and-Conquer Monte Carlo Tree Search For Goal-Directed Planning [78.65083326918351]
暗黙的な逐次計画の仮定に代わるものを検討する。
本稿では,最適計画の近似を行うため,Divide-and-Conquer Monte Carlo Tree Search (DC-MCTS)を提案する。
計画順序に対するこのアルゴリズム的柔軟性は,グリッドワールドにおけるナビゲーションタスクの改善に繋がることを示す。
論文 参考訳(メタデータ) (2020-04-23T18:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。