論文の概要: Generalization in Cooperative Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2202.00104v1
- Date: Mon, 31 Jan 2022 21:39:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 04:17:08.008534
- Title: Generalization in Cooperative Multi-Agent Systems
- Title(参考訳): 協調型マルチエージェントシステムの一般化
- Authors: Anuj Mahajan, Mikayel Samvelyan, Tarun Gupta, Benjamin Ellis, Mingfei
Sun, Tim Rockt\"aschel, Shimon Whiteson
- Abstract要約: 協調型マルチエージェントシステムのための組合せ一般化(CG)の理論的基盤について検討する。
CGは、幅広いアプリケーションにまたがる実用性とデプロイ性を向上させることができるため、自律システムにとって非常に望ましい特徴である。
- 参考スコア(独自算出の注目度): 49.16349318581611
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collective intelligence is a fundamental trait shared by several species of
living organisms. It has allowed them to thrive in the diverse environmental
conditions that exist on our planet. From simple organisations in an ant colony
to complex systems in human groups, collective intelligence is vital for
solving complex survival tasks. As is commonly observed, such natural systems
are flexible to changes in their structure. Specifically, they exhibit a high
degree of generalization when the abilities or the total number of agents
changes within a system. We term this phenomenon as Combinatorial
Generalization (CG). CG is a highly desirable trait for autonomous systems as
it can increase their utility and deployability across a wide range of
applications. While recent works addressing specific aspects of CG have shown
impressive results on complex domains, they provide no performance guarantees
when generalizing towards novel situations. In this work, we shed light on the
theoretical underpinnings of CG for cooperative multi-agent systems (MAS).
Specifically, we study generalization bounds under a linear dependence of the
underlying dynamics on the agent capabilities, which can be seen as a
generalization of Successor Features to MAS. We then extend the results first
for Lipschitz and then arbitrary dependence of rewards on team capabilities.
Finally, empirical analysis on various domains using the framework of
multi-agent reinforcement learning highlights important desiderata for
multi-agent algorithms towards ensuring CG.
- Abstract(参考訳): 集団知性は、いくつかの生物種が共有する基本的な特性である。
これにより、地球上に存在する多様な環境条件で育つことができるのです。
antコロニーの単純な組織から人間のグループの複雑なシステムまで、集団知性は複雑な生存タスクを解決するために不可欠である。
一般に観察されるように、このような自然系は構造の変化に対して柔軟である。
具体的には、システム内で能力やエージェントの総数が変化すると高い一般化度を示す。
我々はこの現象を組合せ一般化(cg)と呼ぶ。
CGは、幅広いアプリケーションにまたがる実用性とデプロイ性を向上させることができるため、自律システムにとって非常に望ましい特徴である。
cgの特定の側面を扱う最近の研究は複雑な領域で印象的な結果を示しているが、新しい状況に一般化する際のパフォーマンス保証は提供していない。
本研究では,協調型マルチエージェントシステム(MAS)におけるCGの理論的基盤に光を当てる。
具体的には,masに対する後継的特徴の一般化と見なすことができるエージェント能力に対する基礎となるダイナミクスの線形依存の下での一般化境界について検討する。
次に結果をまずlipschitzに拡張し、その後、報酬をチーム能力に任意に依存させます。
最後に,多エージェント強化学習の枠組みを用いた各種領域の実証分析により,CGの確保に向けた多エージェントアルゴリズムの重要なデシラタが浮かび上がっている。
関連論文リスト
- Innate-Values-driven Reinforcement Learning for Cooperative Multi-Agent
Systems [1.8220718426493654]
本来の価値はエージェントの本質的なモチベーションを表しており、それはエージェントの本来の関心や目標を追求する好みを反映している。
強化学習(RL)の本質は、報酬駆動(ユーティリティなど)の振る舞いに基づく相互作用から学ぶことである。
本稿では,多エージェント相互作用の複雑な振る舞いを記述するために,階層型複合値強化学習モデル(本質的強化学習)を提案する。
論文 参考訳(メタデータ) (2024-01-10T22:51:10Z) - MAgIC: Investigation of Large Language Model Powered Multi-Agent in
Cognition, Adaptability, Rationality and Collaboration [102.41118020705876]
大規模言語モデル(LLM)は自然言語処理の分野で大きな進歩を遂げている。
アプリケーションがマルチエージェント環境に拡張されるにつれ、包括的な評価フレームワークの必要性が高まっている。
この研究は、マルチエージェント設定内でLLMを評価するために特別に設計された新しいベンチマークフレームワークを導入している。
論文 参考訳(メタデータ) (2023-11-14T21:46:27Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Learning to Learn Group Alignment: A Self-Tuning Credo Framework with
Multiagent Teams [1.370633147306388]
マルチエージェントチームを持つ人口の混合インセンティブは、完全に協調したシステムよりも有利であることが示されている。
個人学習エージェントが報酬関数の様々な部分を通してインセンティブの構成を自己制御する枠組みを提案する。
論文 参考訳(メタデータ) (2023-04-14T18:16:19Z) - ELIGN: Expectation Alignment as a Multi-Agent Intrinsic Reward [29.737986509769808]
本稿では,自己監督型固有報酬ELIGN-期待アライメントを提案する。
動物が周囲の動物と分散的に協力するのと同じように、期待アライメントで訓練されたエージェントは、隣人の期待に合う行動を学ぶ。
エージェント・コーディネーションは、エージェントがタスクを個別に分割し、コーディネーション・対称性を破り、敵を混乱させ、予測アライメントを通じて改善することを示す。
論文 参考訳(メタデータ) (2022-10-09T22:24:44Z) - The Importance of Credo in Multiagent Learning [5.334505575267924]
本稿では,複数のグループに構成されたシステム内のエージェントに対する,多目的最適化のモデルであるクレドを提案する。
結果から,チームメイトやシステム全体の利益は,グローバルな成果を達成するために完全に整合する必要はないことが示唆された。
論文 参考訳(メタデータ) (2022-04-15T14:12:13Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z) - Randomized Entity-wise Factorization for Multi-Agent Reinforcement
Learning [59.62721526353915]
実世界のマルチエージェント設定は、エージェントや非エージェントエンティティのタイプや量が異なるタスクを伴うことが多い。
我々の方法は、これらの共通点を活用することを目的としており、「観察対象のランダムに選択されたサブグループのみを考えるとき、各エージェントが期待する効用は何か?」という問いを投げかける。
論文 参考訳(メタデータ) (2020-06-07T18:28:41Z) - Individual specialization in multi-task environments with multiagent
reinforcement learners [0.0]
汎用知的エージェント構築の第一歩として,マルチエージェント強化学習(MARL)への関心が高まっている。
以前の結果は、調整、効率/公平性、共有プールリソース共有の条件の増大を示唆している。
マルチタスク環境において、複数の報奨タスクを実行できるため、エージェントは必ずしも全てのタスクでうまく機能する必要はないが、特定の条件下では特殊化される可能性がある。
論文 参考訳(メタデータ) (2019-12-29T15:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。