論文の概要: Joint Attention for Multi-Agent Coordination and Social Learning
- arxiv url: http://arxiv.org/abs/2104.07750v1
- Date: Thu, 15 Apr 2021 20:14:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 08:56:22.756621
- Title: Joint Attention for Multi-Agent Coordination and Social Learning
- Title(参考訳): マルチエージェント協調とソーシャルラーニングのための共同注意
- Authors: Dennis Lee, Natasha Jaques, Chase Kew, Douglas Eck, Dale Schuurmans,
Aleksandra Faust
- Abstract要約: 共同注意がマルチエージェント協調とソーシャルラーニングを改善するメカニズムとして有用であることを示す。
共同の注意は、複数の環境にまたがる競争集中型批評家のベースラインよりも高いパフォーマンスをもたらす。
これらの結果から,共同注意は多エージェント学習に有用な帰納的バイアスである可能性が示唆された。
- 参考スコア(独自算出の注目度): 108.31232213078597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Joint attention - the ability to purposefully coordinate attention with
another agent, and mutually attend to the same thing -- is a critical component
of human social cognition. In this paper, we ask whether joint attention can be
useful as a mechanism for improving multi-agent coordination and social
learning. We first develop deep reinforcement learning (RL) agents with a
recurrent visual attention architecture. We then train agents to minimize the
difference between the attention weights that they apply to the environment at
each timestep, and the attention of other agents. Our results show that this
joint attention incentive improves agents' ability to solve difficult
coordination tasks, by reducing the exponential cost of exploring the joint
multi-agent action space. Joint attention leads to higher performance than a
competitive centralized critic baseline across multiple environments. Further,
we show that joint attention enhances agents' ability to learn from experts
present in their environment, even when completing hard exploration tasks that
do not require coordination. Taken together, these findings suggest that joint
attention may be a useful inductive bias for multi-agent learning.
- Abstract(参考訳): 共同注意 - 他のエージェントと意図的に注意を調整し、同じことを相互に参加する能力 - は、人間の社会的認知の重要な構成要素である。
本稿では,マルチエージェント協調と社会学習を改善するメカニズムとして,共同注意が有用かどうかを問う。
本稿ではまず,視覚的注意を反復する深層強化学習(RL)エージェントを開発する。
次にエージェントを訓練し、各タイミングで環境に適用される注意重量と、他のエージェントの注意との差を最小限に抑える。
以上の結果から,協調行動空間を探索する指数関数的コストを低減し,協調課題を解決するエージェントの能力を向上させることを示唆する。
共同の注意は、複数の環境にまたがる競争集中型批評家のベースラインよりも高いパフォーマンスをもたらす。
さらに,協調を必要としない難解な探索作業が完了しても,協調的注意がエージェントの環境に存在する専門家から学ぶ能力を高めることを示した。
これらの結果から,共同注意は多エージェント学習に有用な帰納的バイアスである可能性が示唆された。
関連論文リスト
- Improving How Agents Cooperate: Attention Schemas in Artificial Neural Networks [0.0]
増大する証拠は、脳が注意を監視、予測、制御するために「注意スキーマ」を使用していることを示唆している。
また、注意スキーマは、ある人物が別の人物をよりよく予測できるようにすることで、社会的知性を改善することが示唆されている。
潜在的なアドバンテージを考えると、機械学習では注目スキーマがますますテストされている。
論文 参考訳(メタデータ) (2024-11-01T19:18:07Z) - Inverse Attention Agent for Multi-Agent System [6.196239958087161]
マルチエージェントシステムにとって大きな課題は、エージェントが対戦相手やチームメイトが継続的に変化する様々な環境に動的に適応できるようにすることである。
本稿では、心の理論から概念を取り入れた逆注意エージェントを導入し、注意機構を用いてアルゴリズムで実装し、エンドツーエンドで訓練する。
逆アテンションネットワークが他のエージェントのアテンションを推測することに成功し、この情報によってエージェントのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2024-10-29T06:59:11Z) - Multi-agent cooperation through learning-aware policy gradients [53.63948041506278]
利己的な個人はしばしば協力に失敗し、マルチエージェント学習の根本的な課題を提起する。
本稿では,学習型強化学習のための,偏見のない高導出性ポリシー勾配アルゴリズムを提案する。
我々は, 受刑者のジレンマから, 自己関心のある学習エージェントの間でどのように, いつ, 協力関係が生じるかの新たな説明を得た。
論文 参考訳(メタデータ) (2024-10-24T10:48:42Z) - Cognitive Insights and Stable Coalition Matching for Fostering Multi-Agent Cooperation [6.536780912510439]
本稿では,ToMレベルの異なるエージェントの強度を利用する新しい連立機構を提案する。
我々の研究は、ToMを活用して、より高度で人間らしいコーディネーション戦略を構築する可能性を実証しています。
論文 参考訳(メタデータ) (2024-05-28T10:59:33Z) - Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - Joint Intrinsic Motivation for Coordinated Exploration in Multi-Agent
Deep Reinforcement Learning [0.0]
本稿では,エージェントが一括して斬新な行動を示すような報奨戦略を提案する。
ジムは連続した環境で機能するように設計されたノベルティの集中的な尺度に基づいて共同軌道に報いる。
その結果、最適戦略が高レベルの調整を必要とするタスクの解決には、共同探索が不可欠であることが示唆された。
論文 参考訳(メタデータ) (2024-02-06T13:02:00Z) - Attention Schema in Neural Agents [66.43628974353683]
認知神経科学において、注意理論(AST)は、注意をASと区別する考え方を支持している。
ASTは、エージェントが自身のASを使用して他のエージェントの注意の状態を推測できると予測する。
我々は、注意とASが相互に相互作用する様々な方法を探求する。
論文 参考訳(メタデータ) (2023-05-27T05:40:34Z) - UneVEn: Universal Value Exploration for Multi-Agent Reinforcement
Learning [53.73686229912562]
我々はUniversal Value Exploration(UneVEn)と呼ばれる新しいMARLアプローチを提案する。
UneVEnは、一連の関連するタスクと、普遍的な後継機能の線形分解を同時に学習する。
一連の探索ゲームにおける実証的な結果、エージェント間の重要な調整を必要とする協調捕食・捕食作業への挑戦、およびStarCraft IIのマイクロマネジメントベンチマークは、UneVEnが他の最先端のMARLメソッドが失敗するタスクを解決できることを示している。
論文 参考訳(メタデータ) (2020-10-06T19:08:47Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。