論文の概要: Learning Latent Representations to Influence Multi-Agent Interaction
- arxiv url: http://arxiv.org/abs/2011.06619v1
- Date: Thu, 12 Nov 2020 19:04:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 06:50:18.322352
- Title: Learning Latent Representations to Influence Multi-Agent Interaction
- Title(参考訳): マルチエージェントインタラクションに影響を与える潜在表現の学習
- Authors: Annie Xie, Dylan P. Losey, Ryan Tolsma, Chelsea Finn, Dorsa Sadigh
- Abstract要約: エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
- 参考スコア(独自算出の注目度): 65.44092264843538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Seamlessly interacting with humans or robots is hard because these agents are
non-stationary. They update their policy in response to the ego agent's
behavior, and the ego agent must anticipate these changes to co-adapt. Inspired
by humans, we recognize that robots do not need to explicitly model every
low-level action another agent will make; instead, we can capture the latent
strategy of other agents through high-level representations. We propose a
reinforcement learning-based framework for learning latent representations of
an agent's policy, where the ego agent identifies the relationship between its
behavior and the other agent's future strategy. The ego agent then leverages
these latent dynamics to influence the other agent, purposely guiding them
towards policies suitable for co-adaptation. Across several simulated domains
and a real-world air hockey game, our approach outperforms the alternatives and
learns to influence the other agent.
- Abstract(参考訳): 人間やロボットとシームレスに対話することは、これらのエージェントが静止していないため難しい。
彼らはエゴエージェントの行動に反応してポリシーを更新し、エゴエージェントはこれらの変更を共適応に予測しなければならない。
人間にインスパイアされたロボットは、他のエージェントが行うすべての低レベルアクションを明示的にモデル化する必要がなく、代わりに、ハイレベル表現を通じて他のエージェントの潜在戦略を捉えることができる。
本稿では,エージェントの方針の潜在表現を学習するための強化学習に基づくフレームワークを提案する。
次に、egoエージェントはこれらの潜在ダイナミクスを利用して、他のエージェントに影響を与え、意図的にそれらを共適応に適したポリシーへと導く。
いくつかの模擬ドメインと実世界のエアホッケーゲームを通して、我々のアプローチは代替案より優れ、他のエージェントに影響を与えることを学ぶ。
関連論文リスト
- Contrastive learning-based agent modeling for deep reinforcement
learning [31.293496061727932]
エージェントモデリングは、マルチエージェントシステムにおけるインテリジェントマシンエージェントの適応ポリシーを設計する際に必須である。
我々は,エゴエージェントの訓練・実行時の局所的な観察のみに依存する,コントラスト学習に基づくエージェントモデリング(CLAM)手法を考案した。
CLAMは、各エピソードの冒頭から、リアルタイムに一貫した高品質なポリシー表現を生成することができる。
論文 参考訳(メタデータ) (2023-12-30T03:44:12Z) - DCIR: Dynamic Consistency Intrinsic Reward for Multi-Agent Reinforcement
Learning [84.22561239481901]
本稿では,エージェントの行動が他のエージェントの行動と一致しているかどうかを学習するための新しいアプローチを提案する。
マルチエージェント粒子, Google Research Football および StarCraft II Micromanagement を含む複数の環境における DCIR の評価を行った。
論文 参考訳(メタデータ) (2023-12-10T06:03:57Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Diversifying Agent's Behaviors in Interactive Decision Models [11.125175635860169]
他のエージェントの振る舞いをモデル化することは、複数のエージェント間の相互作用に関する決定モデルにおいて重要な役割を果たす。
本稿では,その相互作用に先立って,被験者の意思決定モデルにおける他のエージェントの行動の多様化について検討する。
論文 参考訳(メタデータ) (2022-03-06T23:05:00Z) - Influencing Towards Stable Multi-Agent Interactions [12.477674452685756]
多エージェント環境での学習は、相手やパートナーの行動の変化によってもたらされる非定常性のために困難である。
本稿では,他のエージェントの安定化戦略に積極的に影響を与えるアルゴリズムを提案する。
各種シミュレーション環境におけるタスク報酬の最大化における安定化の有効性を示す。
論文 参考訳(メタデータ) (2021-10-05T16:46:04Z) - Deep Interactive Bayesian Reinforcement Learning via Meta-Learning [63.96201773395921]
他のエージェントの戦略に対する不確実性下での最適適応行動は、インタラクティブベイズ強化学習フレームワークを用いて計算することができる。
本稿では,メタラーン近似的信念推論とベイズ最適行動を提案する。
提案手法は, モデルフリーアプローチ, 近似後部からのサンプル採取, 他者のメモリフリーモデル維持, あるいは環境の既知の構造を完全に活用しない既存手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-01-11T13:25:13Z) - A Policy Gradient Algorithm for Learning to Learn in Multiagent
Reinforcement Learning [47.154539984501895]
本稿では,マルチエージェント学習環境に固有の非定常的ポリシーダイナミクスを考慮に入れたメタマルチエージェントポリシー勾配定理を提案する。
これは、エージェント自身の非定常ポリシーダイナミクスと、環境内の他のエージェントの非定常ポリシーダイナミクスの両方を考慮するために、勾配更新をモデル化することによって達成される。
論文 参考訳(メタデータ) (2020-10-31T22:50:21Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z) - Variational Autoencoders for Opponent Modeling in Multi-Agent Systems [9.405879323049659]
マルチエージェントシステムは、共有環境における複数のエージェントの相互作用から生じる複雑な振る舞いを示す。
本研究は,マルチエージェントシステムにおけるエージェントの制御に関心を持ち,ポリシーを定めているエージェントとのインタラクションをうまく学習する。
他のエージェント(反対者)の振る舞いをモデル化することは、システム内のエージェントの相互作用を理解するのに不可欠である。
論文 参考訳(メタデータ) (2020-01-29T13:38:59Z) - Towards Learning Multi-agent Negotiations via Self-Play [2.28438857884398]
自己再生の反復的な手順が、徐々に多様な環境を創り出す方法を示す。
これは高度で堅牢なマルチエージェントポリシーの学習につながります。
合併操作の成功率は63%から98%に劇的に改善した。
論文 参考訳(メタデータ) (2020-01-28T08:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。