論文の概要: Joint Attention for Multi-Agent Coordination and Social Learning
- arxiv url: http://arxiv.org/abs/2104.07750v1
- Date: Thu, 15 Apr 2021 20:14:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 08:56:22.756621
- Title: Joint Attention for Multi-Agent Coordination and Social Learning
- Title(参考訳): マルチエージェント協調とソーシャルラーニングのための共同注意
- Authors: Dennis Lee, Natasha Jaques, Chase Kew, Douglas Eck, Dale Schuurmans,
Aleksandra Faust
- Abstract要約: 共同注意がマルチエージェント協調とソーシャルラーニングを改善するメカニズムとして有用であることを示す。
共同の注意は、複数の環境にまたがる競争集中型批評家のベースラインよりも高いパフォーマンスをもたらす。
これらの結果から,共同注意は多エージェント学習に有用な帰納的バイアスである可能性が示唆された。
- 参考スコア(独自算出の注目度): 108.31232213078597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Joint attention - the ability to purposefully coordinate attention with
another agent, and mutually attend to the same thing -- is a critical component
of human social cognition. In this paper, we ask whether joint attention can be
useful as a mechanism for improving multi-agent coordination and social
learning. We first develop deep reinforcement learning (RL) agents with a
recurrent visual attention architecture. We then train agents to minimize the
difference between the attention weights that they apply to the environment at
each timestep, and the attention of other agents. Our results show that this
joint attention incentive improves agents' ability to solve difficult
coordination tasks, by reducing the exponential cost of exploring the joint
multi-agent action space. Joint attention leads to higher performance than a
competitive centralized critic baseline across multiple environments. Further,
we show that joint attention enhances agents' ability to learn from experts
present in their environment, even when completing hard exploration tasks that
do not require coordination. Taken together, these findings suggest that joint
attention may be a useful inductive bias for multi-agent learning.
- Abstract(参考訳): 共同注意 - 他のエージェントと意図的に注意を調整し、同じことを相互に参加する能力 - は、人間の社会的認知の重要な構成要素である。
本稿では,マルチエージェント協調と社会学習を改善するメカニズムとして,共同注意が有用かどうかを問う。
本稿ではまず,視覚的注意を反復する深層強化学習(RL)エージェントを開発する。
次にエージェントを訓練し、各タイミングで環境に適用される注意重量と、他のエージェントの注意との差を最小限に抑える。
以上の結果から,協調行動空間を探索する指数関数的コストを低減し,協調課題を解決するエージェントの能力を向上させることを示唆する。
共同の注意は、複数の環境にまたがる競争集中型批評家のベースラインよりも高いパフォーマンスをもたらす。
さらに,協調を必要としない難解な探索作業が完了しても,協調的注意がエージェントの環境に存在する専門家から学ぶ能力を高めることを示した。
これらの結果から,共同注意は多エージェント学習に有用な帰納的バイアスである可能性が示唆された。
関連論文リスト
- Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - Joint Intrinsic Motivation for Coordinated Exploration in Multi-Agent
Deep Reinforcement Learning [0.0]
本稿では,エージェントが一括して斬新な行動を示すような報奨戦略を提案する。
ジムは連続した環境で機能するように設計されたノベルティの集中的な尺度に基づいて共同軌道に報いる。
その結果、最適戦略が高レベルの調整を必要とするタスクの解決には、共同探索が不可欠であることが示唆された。
論文 参考訳(メタデータ) (2024-02-06T13:02:00Z) - Attention Schema in Neural Agents [66.43628974353683]
認知神経科学において、注意理論(AST)は、注意をASと区別する考え方を支持している。
ASTは、エージェントが自身のASを使用して他のエージェントの注意の状態を推測できると予測する。
我々は、注意とASが相互に相互作用する様々な方法を探求する。
論文 参考訳(メタデータ) (2023-05-27T05:40:34Z) - Decentralized Adversarial Training over Graphs [55.28669771020857]
機械学習モデルの敵攻撃に対する脆弱性は、近年、かなりの注目を集めている。
この研究は、個々のエージェントが様々な強度摂動空間に従属するグラフ上の敵の訓練を研究する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - ELIGN: Expectation Alignment as a Multi-Agent Intrinsic Reward [29.737986509769808]
本稿では,自己監督型固有報酬ELIGN-期待アライメントを提案する。
動物が周囲の動物と分散的に協力するのと同じように、期待アライメントで訓練されたエージェントは、隣人の期待に合う行動を学ぶ。
エージェント・コーディネーションは、エージェントがタスクを個別に分割し、コーディネーション・対称性を破り、敵を混乱させ、予測アライメントを通じて改善することを示す。
論文 参考訳(メタデータ) (2022-10-09T22:24:44Z) - Multiagent Deep Reinforcement Learning: Challenges and Directions
Towards Human-Like Approaches [0.0]
本稿では,最も一般的なマルチエージェント問題表現とその主な課題について述べる。
これらの課題に対処する5つの研究領域を特定します。
我々は,マルチエージェント強化学習が成功するためには,これらの課題を学際的アプローチで解決することを提案する。
論文 参考訳(メタデータ) (2021-06-29T19:53:15Z) - UneVEn: Universal Value Exploration for Multi-Agent Reinforcement
Learning [53.73686229912562]
我々はUniversal Value Exploration(UneVEn)と呼ばれる新しいMARLアプローチを提案する。
UneVEnは、一連の関連するタスクと、普遍的な後継機能の線形分解を同時に学習する。
一連の探索ゲームにおける実証的な結果、エージェント間の重要な調整を必要とする協調捕食・捕食作業への挑戦、およびStarCraft IIのマイクロマネジメントベンチマークは、UneVEnが他の最先端のMARLメソッドが失敗するタスクを解決できることを示している。
論文 参考訳(メタデータ) (2020-10-06T19:08:47Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z) - Attention Flow: End-to-End Joint Attention Estimation [9.01219858596044]
本稿では,ソーシャルシーンビデオにおける共同注意の理解の問題に対処する。
共同注意とは、対象物や関心領域に関する2人以上の個人の共通の視線行動である。
本研究では,サリエンシ強化型注目マップと2つの新しい畳み込み型注意機構を用いて,エンド・ツー・エンド方式で共同注意を学習する。
論文 参考訳(メタデータ) (2020-01-12T16:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。