論文の概要: The Rational Selection of Goal Operations and the Integration ofSearch
Strategies with Goal-Driven Autonomy
- arxiv url: http://arxiv.org/abs/2201.08883v1
- Date: Fri, 21 Jan 2022 20:53:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 15:21:50.725223
- Title: The Rational Selection of Goal Operations and the Integration ofSearch
Strategies with Goal-Driven Autonomy
- Title(参考訳): 目標操作の合理的選択と探索戦略と目標駆動自律性の統合
- Authors: Sravya Kondrakunta, Venkatsampath Raja Gogineni, Michael T. Cox,
Demetris Coleman, Xiaobao Tan, Tony Lin, Mengxue Hou, Fumin Zhang, Frank
McQuarrie, Catherine R. Edwards
- Abstract要約: 認識と制御のリンクは、実世界から象徴的表現(およびバック)への連続的な値変換の問題を管理する必要がある。
効果的な振る舞いを生成するには、推論には、新しい情報を計画し、取得し、更新し、異常を検出し、応答し、システムの目標に対して様々な操作を行う能力が含まれなければならない。
本稿では,複数の目標操作が共起して相互作用する際のエージェントの選択について検討し,その選択方法を確立する。
- 参考スコア(独自算出の注目度): 3.169249926144497
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Intelligent physical systems as embodied cognitive systems must perform
high-level reasoning while concurrently managing an underlying control
architecture. The link between cognition and control must manage the problem of
converting continuous values from the real world to symbolic representations
(and back). To generate effective behaviors, reasoning must include a capacity
to replan, acquire and update new information, detect and respond to anomalies,
and perform various operations on system goals. But, these processes are not
independent and need further exploration. This paper examines an agent's
choices when multiple goal operations co-occur and interact, and it establishes
a method of choosing between them. We demonstrate the benefits and discuss the
trade offs involved with this and show positive results in a dynamic marine
search task.
- Abstract(参考訳): インボディード認知システムとしてのインテリジェント物理システムは、基盤となる制御アーキテクチャを同時に管理しながら高いレベルの推論を行う必要がある。
認識と制御のリンクは、実世界からシンボル表現(およびバック)への連続的な値変換の問題を管理する必要がある。
効果的な行動を生み出すためには、新しい情報を再計画し、取得し、更新し、異常を検出し、対応し、システム目標の様々な操作を実行する能力を含む必要がある。
しかし、これらのプロセスは独立したものではなく、さらなる探索が必要である。
本稿では,複数の目標操作が共起して相互作用する場合のエージェントの選択を検証し,それらの選択方法を確立する。
提案手法の利点を実証し,これに関連するトレードオフを議論し,動的海洋探索タスクにおいて肯定的な結果を示す。
関連論文リスト
- Learning to Look: Seeking Information for Decision Making via Policy Factorization [36.87799092971961]
本研究では,情報検索政策と情報受信政策からなる二重政治ソリューションであるDiaMを提案する。
我々は、情報探索行動を必要とする5つの操作タスクにおいて、二重ポリシーソリューションの能力を実証する。
論文 参考訳(メタデータ) (2024-10-24T17:58:11Z) - DCIR: Dynamic Consistency Intrinsic Reward for Multi-Agent Reinforcement
Learning [84.22561239481901]
本稿では,エージェントの行動が他のエージェントの行動と一致しているかどうかを学習するための新しいアプローチを提案する。
マルチエージェント粒子, Google Research Football および StarCraft II Micromanagement を含む複数の環境における DCIR の評価を行った。
論文 参考訳(メタデータ) (2023-12-10T06:03:57Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Establishing Shared Query Understanding in an Open Multi-Agent System [1.2031796234206138]
本研究では,協調を要するタスクを実行するために,2つのエージェント間の共通理解を開発する手法を提案する。
本手法は,オープンマルチエージェントシステムにおけるタスク指向コミュニケーションの効率向上に重点を置いている。
論文 参考訳(メタデータ) (2023-05-16T11:07:05Z) - Deep Reinforcement Learning for Multi-Agent Interaction [14.532965827043254]
自律エージェント研究グループは、自律システム制御のための新しい機械学習アルゴリズムを開発した。
本稿では,現在進行中の研究ポートフォリオの概要を概説するとともに,今後の課題について論じる。
論文 参考訳(メタデータ) (2022-08-02T21:55:56Z) - Autonomous Open-Ended Learning of Tasks with Non-Stationary
Interdependencies [64.0476282000118]
固有のモチベーションは、目標間のトレーニング時間を適切に割り当てるタスクに依存しないシグナルを生成することが証明されている。
内在的に動機付けられたオープンエンドラーニングの分野におけるほとんどの研究は、目標が互いに独立しているシナリオに焦点を当てているが、相互依存タスクの自律的な獲得を研究するのはごくわずかである。
特に,タスク間の関係に関する情報をアーキテクチャのより高レベルなレベルで組み込むことの重要性を示す。
そして、自律的に取得したシーケンスを格納する新しい学習層を追加することで、前者を拡張する新しいシステムであるH-GRAILを紹介する。
論文 参考訳(メタデータ) (2022-05-16T10:43:01Z) - Robust Event-Driven Interactions in Cooperative Multi-Agent Learning [0.0]
本稿では,マルチエージェント学習システムにおけるエージェント間の通信を,基礎となるマルコフ決定プロセスの本質的ロバスト性を利用して削減する手法を提案する。
いわゆるロバストネス代理関数(オフライン)を計算し、エージェントがシステム内の他のエージェントを更新する前に、その状態の測定値がどれくらい逸脱するかを保守的に示す。
これにより、完全に分散された決定関数が実現され、エージェントが他を更新する必要があるかどうかを判断できるようになる。
論文 参考訳(メタデータ) (2022-04-07T11:00:39Z) - Understanding the origin of information-seeking exploration in
probabilistic objectives for control [62.997667081978825]
探索と探索のトレードオフは適応行動の記述の中心である。
このトレードオフを解決する1つのアプローチは、エージェントが固有の「探索駆動」を持っていることを装備または提案することであった。
汎用的最大化と情報参照行動の組み合わせは, 目的の全く異なる分類の最小化から生じることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:42:39Z) - Tracking Emotions: Intrinsic Motivation Grounded on Multi-Level
Prediction Error Dynamics [68.8204255655161]
目標達成に向けての進捗率と期待率の差が生じると、感情がどのように生じるかについて議論する。
自己生成的・動的目標に向けた行動を生成する本質的なモチベーションアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-07-29T06:53:13Z) - Mutual Information-based State-Control for Intrinsically Motivated
Reinforcement Learning [102.05692309417047]
強化学習において、エージェントは、外部報酬信号を用いて一連の目標に到達することを学習する。
自然界では、知的生物は内部の駆動から学習し、外部の信号を必要としない。
目的状態と制御可能な状態の間の相互情報として本質的な目的を定式化する。
論文 参考訳(メタデータ) (2020-02-05T19:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。