論文の概要: Multiagent Deep Reinforcement Learning: Challenges and Directions
Towards Human-Like Approaches
- arxiv url: http://arxiv.org/abs/2106.15691v1
- Date: Tue, 29 Jun 2021 19:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-02 01:42:24.852978
- Title: Multiagent Deep Reinforcement Learning: Challenges and Directions
Towards Human-Like Approaches
- Title(参考訳): マルチエージェント深層強化学習:人間的アプローチへの挑戦と方向性
- Authors: Annie Wong, Thomas B\"ack, Anna V. Kononova, Aske Plaat
- Abstract要約: 本稿では,最も一般的なマルチエージェント問題表現とその主な課題について述べる。
これらの課題に対処する5つの研究領域を特定します。
我々は,マルチエージェント強化学習が成功するためには,これらの課題を学際的アプローチで解決することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper surveys the field of multiagent deep reinforcement learning. The
combination of deep neural networks with reinforcement learning has gained
increased traction in recent years and is slowly shifting the focus from
single-agent to multiagent environments. Dealing with multiple agents is
inherently more complex as (a) the future rewards depend on the joint actions
of multiple players and (b) the computational complexity of functions
increases. We present the most common multiagent problem representations and
their main challenges, and identify five research areas that address one or
more of these challenges: centralised training and decentralised execution,
opponent modelling, communication, efficient coordination, and reward shaping.
We find that many computational studies rely on unrealistic assumptions or are
not generalisable to other settings; they struggle to overcome the curse of
dimensionality or nonstationarity. Approaches from psychology and sociology
capture promising relevant behaviours such as communication and coordination.
We suggest that, for multiagent reinforcement learning to be successful, future
research addresses these challenges with an interdisciplinary approach to open
up new possibilities for more human-oriented solutions in multiagent
reinforcement learning.
- Abstract(参考訳): 本稿では,マルチエージェント深部強化学習の分野について検討する。
近年、深層ニューラルネットワークと強化学習の組み合わせは勢いを増しており、徐々に焦点をシングルエージェントからマルチエージェント環境にシフトさせている。
a) 将来の報酬は複数のプレイヤーの協調行動に依存し、(b) 関数の計算複雑性が増加するため、複数のエージェントを扱うことは本質的により複雑である。
我々は、最も一般的なマルチエージェント問題表現とその主な課題を提示し、1つ以上の課題に対応する5つの研究領域、集中トレーニングと分散実行、対向モデリング、コミュニケーション、効率的な協調、報酬形成を特定する。
我々は、多くの計算研究が非現実的な仮定に依存するか、他の設定に一般化できないことを見出し、それらは次元の呪いや非定常性の克服に苦しむ。
心理学や社会学からのアプローチは、コミュニケーションや協調といった有望な行動を捉えている。
マルチエージェント強化学習を成功させるために、今後の研究は、マルチエージェント強化学習におけるより人間指向のソリューションの新たな可能性を開くための学際的なアプローチでこれらの課題に対処することを提案する。
関連論文リスト
- Joint Intrinsic Motivation for Coordinated Exploration in Multi-Agent
Deep Reinforcement Learning [0.0]
本稿では,エージェントが一括して斬新な行動を示すような報奨戦略を提案する。
ジムは連続した環境で機能するように設計されたノベルティの集中的な尺度に基づいて共同軌道に報いる。
その結果、最適戦略が高レベルの調整を必要とするタスクの解決には、共同探索が不可欠であることが示唆された。
論文 参考訳(メタデータ) (2024-02-06T13:02:00Z) - A Review of Cooperation in Multi-agent Learning [5.334450724000142]
マルチエージェント学習(MAL)における協調は、多くの分野の共通点におけるトピックである。
本稿では,マルチエージェント学習の基本概念,問題設定,アルゴリズムについて概説する。
論文 参考訳(メタデータ) (2023-12-08T16:42:15Z) - Responsible Emergent Multi-Agent Behavior [2.9370710299422607]
Responsible AIの最先端技術は、人間の問題はマルチエージェントの問題である、という重要なポイントを無視した。
交通の運転から経済政策の交渉まで、人間の問題解決には複数の個人の行動と動機の相互作用と相互作用が伴う。
この論文は、責任ある創発的マルチエージェント行動の研究を発展させる。
論文 参考訳(メタデータ) (2023-11-02T21:37:32Z) - Neural Amortized Inference for Nested Multi-agent Reasoning [54.39127942041582]
本研究では,人間のような推論能力と計算限界のギャップを埋める新しい手法を提案する。
提案手法を2つの挑戦的マルチエージェント相互作用領域で評価する。
論文 参考訳(メタデータ) (2023-08-21T22:40:36Z) - Learning Reward Machines in Cooperative Multi-Agent Tasks [75.79805204646428]
本稿では,MARL(Multi-Agent Reinforcement Learning)に対する新しいアプローチを提案する。
これは、協調的なタスク分解と、サブタスクの構造をコードする報酬機(RM)の学習を組み合わせる。
提案手法は、部分的に観測可能な環境下での報酬の非マルコフ的性質に対処するのに役立つ。
論文 参考訳(メタデータ) (2023-03-24T15:12:28Z) - Hierarchical Reinforcement Learning with Opponent Modeling for
Distributed Multi-agent Cooperation [13.670618752160594]
深層強化学習(DRL)はエージェントと環境の相互作用を通じて多エージェント協調に有望なアプローチを提供する。
従来のDRLソリューションは、ポリシー探索中に連続的なアクション空間を持つ複数のエージェントの高次元に悩まされる。
効率的な政策探索のための高レベル意思決定と低レベル個別制御を用いた階層型強化学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-25T19:09:29Z) - Q-Mixing Network for Multi-Agent Pathfinding in Partially Observable
Grid Environments [62.997667081978825]
部分的に観測可能なグリッド環境におけるマルチエージェントナビゲーションの問題点を考察する。
エージェントがまず、観察を行動にマッピングする方針を学習し、その目的を達成するためにこれらの方針に従うとき、強化学習アプローチを活用することを提案する。
論文 参考訳(メタデータ) (2021-08-13T09:44:47Z) - Cooperative Exploration for Multi-Agent Deep Reinforcement Learning [127.4746863307944]
深層強化学習のための協調型マルチエージェント探索(CMAE)を提案する。
ゴールは正規化エントロピーに基づく手法により、複数の射影状態空間から選択される。
CMAEが様々なタスクのベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2021-07-23T20:06:32Z) - A game-theoretic analysis of networked system control for common-pool
resource management using multi-agent reinforcement learning [54.55119659523629]
マルチエージェント強化学習は近年,ネットワーク型システム制御へのアプローチとして大きな可能性を秘めている。
共通プールの資源は耕作可能な土地、淡水、湿地、野生生物、魚類資源、森林、大気である。
論文 参考訳(メタデータ) (2020-10-15T14:12:26Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z) - Multi-Agent Reinforcement Learning for Problems with Combined Individual
and Team Reward [0.0]
本稿では,新しい多エージェント強化学習フレームワークであるDecomposed Multi-Agent Deep Deterministic Policy Gradient (DE-MADDPG)を提案する。
提案手法は,MADDPGアルゴリズムの直接適応よりもはるかに優れた,より安定した性能が得られることを示す。
論文 参考訳(メタデータ) (2020-03-24T00:55:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。