論文の概要: Reliably Re-Acting to Partner's Actions with the Social Intrinsic
Motivation of Transfer Empowerment
- arxiv url: http://arxiv.org/abs/2203.03355v1
- Date: Mon, 7 Mar 2022 13:03:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 21:28:56.767697
- Title: Reliably Re-Acting to Partner's Actions with the Social Intrinsic
Motivation of Transfer Empowerment
- Title(参考訳): トランスファーエンパワーメントの社会的本質的動機づけによるパートナーの行動への信頼感
- Authors: Tessa van der Heiden, Herke van Hoof, Efstratios Gavves, Christoph
Salge
- Abstract要約: 協調コミュニケーションと協調作業のためのマルチエージェント強化学習(MARL)を検討する。
MARLエージェントは、トレーニングパートナーのポリシーに過度に適合できるため、脆くすることができる。
我々の目標は、学習プロセスのバイアスを、他のエージェントの行動に対する反応性のある戦略を見つけることです。
- 参考スコア(独自算出の注目度): 40.24079015603578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider multi-agent reinforcement learning (MARL) for cooperative
communication and coordination tasks. MARL agents can be brittle because they
can overfit their training partners' policies. This overfitting can produce
agents that adopt policies that act under the expectation that other agents
will act in a certain way rather than react to their actions. Our objective is
to bias the learning process towards finding reactive strategies towards other
agents' behaviors. Our method, transfer empowerment, measures the potential
influence between agents' actions. Results from three simulated cooperation
scenarios support our hypothesis that transfer empowerment improves MARL
performance. We discuss how transfer empowerment could be a useful principle to
guide multi-agent coordination by ensuring reactiveness to one's partner.
- Abstract(参考訳): 協調コミュニケーションと協調作業のためのマルチエージェント強化学習(MARL)を検討する。
MARLエージェントは、トレーニングパートナーのポリシーに過度に適合できるため、脆くすることができる。
この過剰フィッティングは、他のエージェントが行動に反応するのではなく、ある方法で行動することを期待して行動するポリシーを採用するエージェントを生み出す可能性がある。
我々の目標は、学習プロセスから他のエージェントの行動に対する反応性戦略を見つけることにある。
トランスファーエンパワメントという手法は,エージェントの行動間の潜在的な影響を測定する。
3つのシミュレートされた協調シナリオの結果は、転送エンパワーメントがMARL性能を向上させるという仮説を支持する。
我々は,伝達エンパワーメントが,パートナーへの反応性を確保することで,マルチエージェント協調を導く上で有用な原理である可能性について論じる。
関連論文リスト
- Situation-Dependent Causal Influence-Based Cooperative Multi-agent
Reinforcement Learning [18.054709749075194]
我々は、状況依存因果関係に基づく協調マルチエージェント強化学習(SCIC)という新しいMARLアルゴリズムを提案する。
本研究の目的は,特定の状況におけるエージェント間因果関係の影響を,因果介入と条件付き相互情報を用いて検出することである。
結果として得られたアップデートは、協調した探索と本質的な報酬分布をリンクし、全体的なコラボレーションとパフォーマンスを高めた。
論文 参考訳(メタデータ) (2023-12-15T05:09:32Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Learning to Participate through Trading of Reward Shares [1.5484595752241124]
我々は、他のエージェントのリターンに参加する機会を、報酬の取得によって得られる、株式市場にインスパイアされた手法を提案する。
直感的には、エージェントは、他のエージェントの報酬に直接影響を受けるとき、共通の関心に応じて行動することを学ぶことができる。
論文 参考訳(メタデータ) (2023-01-18T10:25:55Z) - Policy Diagnosis via Measuring Role Diversity in Cooperative Multi-agent
RL [107.58821842920393]
我々はエージェントの行動差を定量化し、bfロールの多様性を通して政策パフォーマンスとの関係を構築する
MARLの誤差は, 役割多様性と強い関係を持つ3つの部分に分けられる。
分解された要因は3つの一般的な方向における政策最適化に大きな影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-06-01T04:58:52Z) - Coordinating Policies Among Multiple Agents via an Intelligent
Communication Channel [81.39444892747512]
MARL(Multi-Agent Reinforcement Learning)では、エージェントが直接通信できる特別なチャンネルがしばしば導入される。
本稿では,エージェントの集団的性能を向上させるために,エージェントが提供した信号の伝達と解釈を学習する,インテリジェントなファシリテータを通じてエージェントがコミュニケーションする手法を提案する。
論文 参考訳(メタデータ) (2022-05-21T14:11:33Z) - Iterated Reasoning with Mutual Information in Cooperative and Byzantine
Decentralized Teaming [0.0]
我々は,政策グラディエント(PG)の下での最適化において,エージェントの方針がチームメイトの方針に準じることが,本質的に相互情報(MI)の下限を最大化することを示す。
我々の手法であるInfoPGは、創発的協調行動の学習におけるベースラインを上回り、分散協調型MARLタスクにおける最先端の課題を設定します。
論文 参考訳(メタデータ) (2022-01-20T22:54:32Z) - Promoting Resilience in Multi-Agent Reinforcement Learning via
Confusion-Based Communication [5.367993194110255]
効果的に協力するグループの能力とグループのレジリエンスとの関係を強調した。
レジリエンスを促進するために,新しい混乱型通信プロトコルによる協調の促進を提案する。
各種のMARL設定において,提案手法の実証評価を行った。
論文 参考訳(メタデータ) (2021-11-12T09:03:19Z) - Cooperative and Competitive Biases for Multi-Agent Reinforcement
Learning [12.676356746752893]
マルチエージェント強化学習(MARL)アルゴリズムのトレーニングは,単一エージェント強化学習アルゴリズムのトレーニングよりも難しい。
本稿では,他のエージェントの偏りのある行動情報を用いたMARL訓練を促進するアルゴリズムを提案する。
本アルゴリズムは, 多様な協調競合環境において, 既存のアルゴリズムを上回っていることを実証した。
論文 参考訳(メタデータ) (2021-01-18T05:52:22Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。