論文の概要: Self-directed Learning of Action Models using Exploratory Planning
- arxiv url: http://arxiv.org/abs/2203.03485v1
- Date: Mon, 7 Mar 2022 15:57:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 16:17:35.742858
- Title: Self-directed Learning of Action Models using Exploratory Planning
- Title(参考訳): 探索計画を用いた行動モデルの自己学習
- Authors: Dustin Dannenhauer, Matthew Molineaux, Michael W. Floyd, Noah
Reifsnyder, David W. Aha
- Abstract要約: 専門家の痕跡や目標のない行動条件や効果を学習できる新しい探索計画エージェントについて述べる。
この研究の貢献には、Lifted Linked Clausesと呼ばれるコンテキストに対する新しい表現、これらの節を使った新しい探索行動選択アプローチ、探索に焦点を当てたビデオゲームのシナリオにおける経験的評価が含まれる。
- 参考スコア(独自算出の注目度): 6.796748304066826
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Complex, real-world domains may not be fully modeled for an agent, especially
if the agent has never operated in the domain before. The agent's ability to
effectively plan and act in such a domain is influenced by its knowledge of
when it can perform specific actions and the effects of those actions. We
describe a novel exploratory planning agent that is capable of learning action
preconditions and effects without expert traces or a given goal. The agent's
architecture allows it to perform both exploratory actions as well as
goal-directed actions, which opens up important considerations for how
exploratory planning and goal planning should be controlled, as well as how the
agent's behavior should be explained to any teammates it may have. The
contributions of this work include a new representation for contexts called
Lifted Linked Clauses, a novel exploration action selection approach using
these clauses, an exploration planner that uses lifted linked clauses as goals
in order to reach new states, and an empirical evaluation in a scenario from an
exploration-focused video game demonstrating that lifted linked clauses improve
exploration and action model learning against non-planning baseline agents.
- Abstract(参考訳): 複雑な実世界のドメインはエージェントのために完全にモデル化されないかもしれない。
そのようなドメインにおいて効果的に計画し行動するエージェントの能力は、いつ特定のアクションを実行し、それらのアクションの効果を発揮できるかという知識に影響される。
専門家の足跡や目標がなくても,行動の前提条件や効果を学習できる新たな探索計画エージェントについて述べる。
エージェントのアーキテクチャは、探索的行動とゴール指向の行動の両方を実行することができ、探索的計画と目標計画の制御方法や、エージェントの振る舞いがチームメイトにどのように説明されるべきかに関して重要な考慮が開かれる。
この研究の貢献には、lifted linked clausesと呼ばれるコンテキストの新しい表現、これらの節を用いた新しい探索アクション選択アプローチ、lifted linked clausesを目標として新たな状態に到達するための探索プランナー、lifted linked clausesが非計画的なベースラインエージェントに対する探索とアクションモデル学習を改善することの実証的評価が含まれる。
関連論文リスト
- Transfer Reinforcement Learning in Heterogeneous Action Spaces using Subgoal Mapping [9.81076530822611]
本稿では,専門家エージェントポリシーと学習者エージェントポリシーのサブゴールマッピングを学習する手法を提案する。
タスクの分散のために,Long Short Term Memory (LSTM) ネットワークをトレーニングすることで,このサブゴールマッピングを学習する。
提案手法は,与えられたタスクの分布に基づくサブゴールマッピングを効果的に発見できることを実証する。
論文 参考訳(メタデータ) (2024-10-18T14:08:41Z) - Ask-before-Plan: Proactive Language Agents for Real-World Planning [68.08024918064503]
プロアクティブエージェントプランニングでは、ユーザエージェントの会話とエージェント環境のインタラクションに基づいて、言語エージェントが明確化のニーズを予測する必要がある。
本稿では,明確化,実行,計画の3つのエージェントからなる新しいマルチエージェントフレームワーク,Clarification-Execution-Planning(textttCEP)を提案する。
論文 参考訳(メタデータ) (2024-06-18T14:07:28Z) - Embodied Instruction Following in Unknown Environments [66.60163202450954]
未知環境における複雑なタスクに対するEIF(Embodied instruction following)法を提案する。
我々は,ハイレベルなタスクプランナと低レベルな探索コントローラを含む,階層的な具体化命令に従うフレームワークを構築した。
タスクプランナに対しては、タスク完了プロセスと既知の視覚的手がかりに基づいて、人間の目標達成のための実行可能なステップバイステッププランを生成する。
論文 参考訳(メタデータ) (2024-06-17T17:55:40Z) - KnowAgent: Knowledge-Augmented Planning for LLM-Based Agents [54.09074527006576]
大規模言語モデル(LLM)は複雑な推論タスクにおいて大きな可能性を証明していますが、より高度な課題に取り組むには不十分です。
この不適切さは、主に言語エージェントのアクション知識が組み込まれていないことに起因する。
我々は、明示的な行動知識を取り入れることで、LLMの計画能力を高めるために設計された新しいアプローチであるKnowAgentを紹介する。
論文 参考訳(メタデータ) (2024-03-05T16:39:12Z) - AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - Adaptation and Communication in Human-Robot Teaming to Handle
Discrepancies in Agents' Beliefs about Plans [13.637799815698559]
我々はモンテカルロ木探索に基づくオンライン実行アルゴリズムを提案し,その動作を計画する。
私たちのエージェントは、共有されたメンタルモデルを保証することなく、チームで作業するための装備がより優れていることを示しています。
論文 参考訳(メタデータ) (2023-07-07T03:05:34Z) - Abstraction of Nondeterministic Situation Calculus Action Theories --
Extended Version [23.24285208243607]
非決定論的領域で動作するエージェントの動作を抽象化するための一般的なフレームワークを開発する。
我々は抽象的かつ具体的な非決定論的基本作用論を持っていると仮定する。
エージェントが目標/完了タスクを抽象レベルで達成するための(強いFOND)計画/戦略を持っている場合、具体レベルでは非決定論的抽象アクションを常に実行可能であることを示す。
論文 参考訳(メタデータ) (2023-05-20T05:42:38Z) - Learning to Generate All Feasible Actions [4.333208181196761]
アクションマッピングは、学習プロセスを2つのステップに分割する新しいアプローチである。
本稿では、実現可能性モデルの自己教師型クエリにより、実現可能なすべてのアクションを生成することを学ぶことで、実現可能性部分に焦点を当てる。
エージェントが接続不能な実行可能なアクションセット間でアクションを生成する能力を示す。
論文 参考訳(メタデータ) (2023-01-26T23:15:51Z) - Online Grounding of PDDL Domains by Acting and Sensing in Unknown
Environments [62.11612385360421]
本稿では,エージェントが異なるタスクを実行できるフレームワークを提案する。
機械学習モデルを統合して、感覚データを抽象化し、目標達成のためのシンボリックプランニング、ナビゲーションのためのパスプランニングを行う。
提案手法を,RGB-Dオンボードカメラ,GPS,コンパスなど,正確なシミュレーション環境で評価する。
論文 参考訳(メタデータ) (2021-12-18T21:48:20Z) - What can I do here? A Theory of Affordances in Reinforcement Learning [65.70524105802156]
我々はマルコフ決定過程の学習と計画を行うエージェントのための余裕の理論を開発する。
このケースでは、任意の状況で利用可能なアクションの数を減らすことで、アフォーダンスが二重の役割を担います。
本稿では,よりシンプルで一般化された遷移モデルを推定するために,余裕を学習し,それを利用するアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-26T16:34:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。