論文の概要: Too many cooks: Bayesian inference for coordinating multi-agent
collaboration
- arxiv url: http://arxiv.org/abs/2003.11778v2
- Date: Mon, 6 Jul 2020 00:59:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 21:23:21.609488
- Title: Too many cooks: Bayesian inference for coordinating multi-agent
collaboration
- Title(参考訳): あまりにも多くの料理人:マルチエージェントコラボレーションをコーディネートするベイズ推論
- Authors: Rose E. Wang, Sarah A. Wu, James A. Evans, Joshua B. Tenenbaum, David
C. Parkes, Max Kleiman-Weiner
- Abstract要約: 協調には、エージェントが行動を調整する必要がある。
人間が協力する能力の根底にあるのは、他人を行動させる隠された精神状態を予測する能力である。
これらの能力を備えた分散型マルチエージェント学習機構であるベイズデリゲーションを開発した。
- 参考スコア(独自算出の注目度): 55.330547895131986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaboration requires agents to coordinate their behavior on the fly,
sometimes cooperating to solve a single task together and other times dividing
it up into sub-tasks to work on in parallel. Underlying the human ability to
collaborate is theory-of-mind, the ability to infer the hidden mental states
that drive others to act. Here, we develop Bayesian Delegation, a decentralized
multi-agent learning mechanism with these abilities. Bayesian Delegation
enables agents to rapidly infer the hidden intentions of others by inverse
planning. We test Bayesian Delegation in a suite of multi-agent Markov decision
processes inspired by cooking problems. On these tasks, agents with Bayesian
Delegation coordinate both their high-level plans (e.g. what sub-task they
should work on) and their low-level actions (e.g. avoiding getting in each
other's way). In a self-play evaluation, Bayesian Delegation outperforms
alternative algorithms. Bayesian Delegation is also a capable ad-hoc
collaborator and successfully coordinates with other agent types even in the
absence of prior experience. Finally, in a behavioral experiment, we show that
Bayesian Delegation makes inferences similar to human observers about the
intent of others. Together, these results demonstrate the power of Bayesian
Delegation for decentralized multi-agent collaboration.
- Abstract(参考訳): 共同作業では,エージェントの行動調整や,ひとつのタスクの解決に協力すること,タスクをサブタスクに分割して並列に作業することが求められます。
人間が協力する能力の下にあるのは、他人を行動させる隠された精神状態を予測する能力である。
本稿では,これらの能力を持つ分散マルチエージェント学習機構であるベイズ代表法を開発した。
ベイズデリゲーションは、エージェントが逆計画によって他人の隠れた意図を素早く推測することを可能にする。
料理問題に触発されたマルチエージェントマルコフ決定プロセスのスイートでベイズデリゲーションをテストする。
これらのタスクでは、ベイズデリゲーションを持つエージェントは、ハイレベルな計画(例えば、どのサブタスクに取り組むべきか)と低レベルな行動(例えば、お互いの邪魔をしない)を協調する。
自己再生評価では、ベイズデリゲーションは代替アルゴリズムよりも優れている。
ベイズの代表団はアドホックな協力者でもあり、経験がなくても他のエージェントとうまく協調する。
最後に,行動実験において,ベイズ代表団が他者の意図について人間の観察者と同様の推論をすることを示す。
これらの結果は、分散マルチエージェントコラボレーションにおけるベイズデリゲーションの力を示すものである。
関連論文リスト
- Reaching Consensus in Cooperative Multi-Agent Reinforcement Learning
with Goal Imagination [16.74629849552254]
本稿では,複数のエージェントを協調するモデルに基づくコンセンサス機構を提案する。
提案したMulti-Adnt Goal Imagination (MAGI) フレームワークは、エージェントがImagined Common goalとコンセンサスに達するためのガイドである。
このような効率的なコンセンサス機構は、すべてのエージェントを協調して有用な将来状態に導くことができることを示す。
論文 参考訳(メタデータ) (2024-03-05T18:07:34Z) - Optimizing delegation between human and AI collaborative agents [1.6114012813668932]
私たちは、潜在的なパフォーマンス上の欠陥に関してデリゲート決定を行うために、デリゲートマネージャエージェントを訓練します。
我々のフレームワークは、エージェントをマッチングのダイナミクスに制限することなく、チームパフォーマンスの観察を通して学習する。
この結果から,環境の異なる表現の下で運用するエージェントチームによる委譲決定の実施をマネージャが学べることが判明した。
論文 参考訳(メタデータ) (2023-09-26T07:23:26Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - ELIGN: Expectation Alignment as a Multi-Agent Intrinsic Reward [29.737986509769808]
本稿では,自己監督型固有報酬ELIGN-期待アライメントを提案する。
動物が周囲の動物と分散的に協力するのと同じように、期待アライメントで訓練されたエージェントは、隣人の期待に合う行動を学ぶ。
エージェント・コーディネーションは、エージェントがタスクを個別に分割し、コーディネーション・対称性を破り、敵を混乱させ、予測アライメントを通じて改善することを示す。
論文 参考訳(メタデータ) (2022-10-09T22:24:44Z) - Multi-agent Deep Covering Skill Discovery [50.812414209206054]
本稿では,複数エージェントの結合状態空間の予測被覆時間を最小化し,マルチエージェントオプションを構築するマルチエージェントDeep Covering Option Discoveryを提案する。
また、MARLプロセスにマルチエージェントオプションを採用するための新しいフレームワークを提案する。
提案アルゴリズムは,アテンション機構とエージェントの相互作用を効果的に把握し,マルチエージェントオプションの同定に成功した。
論文 参考訳(メタデータ) (2022-10-07T00:40:59Z) - Consensus Learning for Cooperative Multi-Agent Reinforcement Learning [12.74348597962689]
協調型マルチエージェント強化学習のためのコンセンサス学習を提案する。
我々は、エージェントのネットワークへの明示的な入力として、推論されたコンセンサスをフィードする。
提案手法は,様々なマルチエージェント強化学習アルゴリズムに拡張することができる。
論文 参考訳(メタデータ) (2022-06-06T12:43:07Z) - LDSA: Learning Dynamic Subtask Assignment in Cooperative Multi-Agent
Reinforcement Learning [122.47938710284784]
協調型MARLにおける動的サブタスク代入(LDSA)を学習するための新しいフレームワークを提案する。
エージェントを異なるサブタスクに合理的に割り当てるために,能力に基づくサブタスク選択戦略を提案する。
LDSAは、より優れたコラボレーションのために、合理的で効果的なサブタスクの割り当てを学習していることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:46:16Z) - On the Critical Role of Conventions in Adaptive Human-AI Collaboration [73.21967490610142]
規則依存表現と規則依存表現を区別する学習フレームワークを提案する。
複雑性が異なる3つの共同作業に対するアプローチを実験的に検証します。
論文 参考訳(メタデータ) (2021-04-07T02:46:19Z) - A Cordial Sync: Going Beyond Marginal Policies for Multi-Agent Embodied
Tasks [111.34055449929487]
エージェントが協力して家具をリビングルームに移動させるという,新しいタスクFurnMoveを紹介した。
既存のタスクとは異なり、FurnMoveはエージェントが各タイミングで調整する必要がある。
既存の分散化されたアクションサンプリング手順は、表現力のある共同アクションポリシーを許さない。
SynC-policiesとCORDIALを用いて、我々のエージェントはFurnMoveで58%の完成率を達成する。
論文 参考訳(メタデータ) (2020-07-09T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。