論文の概要: Improving Multi-Agent Cooperation using Theory of Mind
- arxiv url: http://arxiv.org/abs/2007.15703v1
- Date: Thu, 30 Jul 2020 19:31:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 14:06:58.584707
- Title: Improving Multi-Agent Cooperation using Theory of Mind
- Title(参考訳): 心の理論を用いたマルチエージェント協調の改善
- Authors: Terence X. Lim, Sidney Tio, Desmond C. Ong
- Abstract要約: 本研究では,他者の意図を明示的に表現することで,協調ゲームのパフォーマンスが向上するかを検討する。
ToMエージェントを持つチームは、あらゆる種類のパートナとのコラボレーションにおいて、非ToMエージェントを著しく上回ります。
これらの知見は、より優れた協調剤の設計に影響を及ぼす。
- 参考スコア(独自算出の注目度): 4.769747792846005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in Artificial Intelligence have produced agents that can beat
human world champions at games like Go, Starcraft, and Dota2. However, most of
these models do not seem to play in a human-like manner: People infer others'
intentions from their behaviour, and use these inferences in scheming and
strategizing. Here, using a Bayesian Theory of Mind (ToM) approach, we
investigated how much an explicit representation of others' intentions improves
performance in a cooperative game. We compared the performance of humans
playing with optimal-planning agents with and without ToM, in a cooperative
game where players have to flexibly cooperate to achieve joint goals. We find
that teams with ToM agents significantly outperform non-ToM agents when
collaborating with all types of partners: non-ToM, ToM, as well as human
players, and that the benefit of ToM increases the more ToM agents there are.
These findings have implications for designing better cooperative agents.
- Abstract(参考訳): 人工知能の最近の進歩は、Go、Starcraft、Dota2といったゲームで人間の世界チャンピオンに勝つエージェントを生み出している。
しかし、これらのモデルのほとんどは人間のようには機能しないようで、人々は自分の行動から他人の意図を推測し、これらの推論を分類や戦略に利用する。
そこで,ベイズ的思考理論(ToM)を用いて,他者の意図を明示的に表現することで,協調ゲームの性能が向上するかを検討した。
協調的なゴールを達成するために,プレイヤーが柔軟に協力しなければならない協調ゲームにおいて,人間とトムの有無を最適な計画エージェントと比較した。
ToMエージェントを持つチームは、非ToM、ToM、人間プレイヤーなど、あらゆる種類のパートナーとのコラボレーションにおいて、非ToMエージェントよりも大幅に優れており、ToMのメリットはToMエージェントの数を増やしている。
これらの発見はより優れた協力的エージェントの設計に意味を持つ。
関連論文リスト
- Mutual Theory of Mind in Human-AI Collaboration: An Empirical Study with LLM-driven AI Agents in a Real-time Shared Workspace Task [56.92961847155029]
心の理論(ToM)は、他人を理解する上で重要な能力として、人間の協調とコミュニケーションに大きな影響を及ぼす。
Mutual Theory of Mind (MToM) は、ToM能力を持つAIエージェントが人間と協力するときに発生する。
エージェントのToM能力はチームのパフォーマンスに大きな影響を与えず,エージェントの人間的理解を高めていることがわかった。
論文 参考訳(メタデータ) (2024-09-13T13:19:48Z) - Enhancing Human Experience in Human-Agent Collaboration: A
Human-Centered Modeling Approach Based on Positive Human Gain [18.968232976619912]
協調型AIエージェントのための「人間中心型」モデリング手法を提案する。
エージェントは、エージェントの本来の能力を維持しながら、人間がこれらの目標を達成する度合いを高めることを学ぶべきである。
マルチプレイヤーオンラインバトルアリーナ(MOBA)ゲーム「Honor of Kings」におけるRLHGエージェントの評価を行った。
論文 参考訳(メタデータ) (2024-01-28T05:05:57Z) - Leading the Pack: N-player Opponent Shaping [52.682734939786464]
我々は、複数のコプレーヤと複数のシェーピングエージェントを含む環境に、対向型シェーピング(OS)メソッドを拡張します。
多数のコプレーヤでプレイすると,OSメソッドの相対的な性能が低下し,OSメソッドが動作しない可能性が示唆された。
論文 参考訳(メタデータ) (2023-12-19T20:01:42Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Towards Effective and Interpretable Human-Agent Collaboration in MOBA
Games: A Communication Perspective [23.600139293202336]
本稿は,MOBAゲームにおける人間とエージェントのコラボレーションを調査するための最初の試みである。
我々は,効率的なメタコマンド・コミュニケーション・フレームワークを設計することにより,人やエージェントが明示的なコミュニケーションを通じて協調することを可能にすることを提案する。
我々は、MCCエージェントが人間のチームメイトと合理的に協力できることを示し、また、異なるレベルのチームメイトと、人間のチームメイトの数とのコラボレーションを一般化することも示している。
論文 参考訳(メタデータ) (2023-04-23T12:11:04Z) - Mastering the Game of No-Press Diplomacy via Human-Regularized
Reinforcement Learning and Planning [95.78031053296513]
ノープレス外交(No-press Diplomacy)は、協力と競争の両方を含む複雑な戦略ゲームである。
我々は、人間の模倣学習ポリシーに対する報酬最大化ポリシーを規則化する、DiL-piKLと呼ばれる計画アルゴリズムを導入する。
RL-DiL-piKLと呼ばれる自己再生強化学習アルゴリズムに拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T14:47:35Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
論文 参考訳(メタデータ) (2022-08-22T14:06:06Z) - Emergence of Theory of Mind Collaboration in Multiagent Systems [65.97255691640561]
ToMとエージェント間の効果的な協調を開発するための適応的学習アルゴリズムを提案する。
アルゴリズムはToMをモデル化せずに従来の分散実行アルゴリズムを全て上回る2つのゲームで評価する。
論文 参考訳(メタデータ) (2021-09-30T23:28:00Z) - Adaptive Agent Architecture for Real-time Human-Agent Teaming [3.284216428330814]
エージェントは人間の意図を推論し、警察を円滑な調整に適応させることが重要である。
ほとんどの文献は、学習された人間のモデルを参照するエージェントを構築している。
二者協調ゲームにおける人間モデルフリー設定における適応エージェントアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-07T20:08:09Z) - "Other-Play" for Zero-Shot Coordination [21.607428852157273]
その他の遊び学習アルゴリズムは、より堅牢な戦略を探すことによって、セルフプレイを強化する。
本研究では,協力型カードゲーム「はなび」について検討し,OPエージェントが単独で訓練されたエージェントとペアを組むと,より高いスコアが得られることを示す。
論文 参考訳(メタデータ) (2020-03-06T00:39:37Z) - Real-World Human-Robot Collaborative Reinforcement Learning [6.089774484591287]
本研究では,人間ロボットによる協調型迷路ゲームの現実的な構成について述べる。
ロボットエージェントの制御には深層強化学習を用い,実戦30分以内の結果を得た。
本研究では,人間とロボットエージェント間の時間的相互政治学習の結果を提示し,各参加者のエージェントがゲームプレイの表現として機能することを示す。
論文 参考訳(メタデータ) (2020-03-02T19:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。