論文の概要: Emergence of Roles in Robotic Teams with Model Sharing and Limited Communication
- arxiv url: http://arxiv.org/abs/2505.00540v1
- Date: Thu, 01 May 2025 14:05:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.321139
- Title: Emergence of Roles in Robotic Teams with Model Sharing and Limited Communication
- Title(参考訳): モデル共有と限定コミュニケーションによるロボットチームにおける役割の創出
- Authors: Ian O'Flynn, Harun Šiljak,
- Abstract要約: 本稿では,単一エージェントに学習を集中させるマルチエージェント捕食システムにおける強化学習戦略を提案する。
このアプローチは、MARLや集中学習モデルのようなアプローチと比較して、計算とエネルギーの需要を大幅に削減することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a reinforcement learning strategy for use in multi-agent foraging systems in which the learning is centralised to a single agent and its model is periodically disseminated among the population of non-learning agents. In a domain where multi-agent reinforcement learning (MARL) is the common approach, this approach aims to significantly reduce the computational and energy demands compared to approaches such as MARL and centralised learning models. By developing high performing foraging agents, these approaches can be translated into real-world applications such as logistics, environmental monitoring, and autonomous exploration. A reward function was incorporated into this approach that promotes role development among agents, without explicit directives. This led to the differentiation of behaviours among the agents. The implicit encouragement of role differentiation allows for dynamic actions in which agents can alter roles dependent on their interactions with the environment without the need for explicit communication between agents.
- Abstract(参考訳): 本稿では,学習を単一のエージェントに集中させ,そのモデルが非学習エージェントの集団に周期的に普及するマルチエージェント採食システムにおける強化学習戦略を提案する。
マルチエージェント強化学習(MARL)が一般的な手法である分野において、本手法は、MARLや集中学習モデルのようなアプローチと比較して計算とエネルギーの需要を大幅に削減することを目的としている。
高性能な採餌エージェントを開発することで、これらのアプローチはロジスティクス、環境モニタリング、自律探査といった現実世界の応用に変換することができる。
報酬関数は、明示的な指示なしに、エージェント間の役割発達を促進するこのアプローチに組み込まれた。
これにより、エージェント間の行動の分化がもたらされた。
役割分化の暗黙的な促進は、エージェント間の明示的なコミュニケーションを必要とせずに、エージェントが環境との相互作用に依存する役割を変更できる動的なアクションを可能にする。
関連論文リスト
- An Organizationally-Oriented Approach to Enhancing Explainability and Control in Multi-Agent Reinforcement Learning [0.0]
マルチエージェント強化学習(Multi-Agent Reinforcement Learning)は、組織概念と類似性を示す協調エージェント行動の開発につながる可能性がある。
MARLプロセスに$mathcalMOISE+$モデルから組織の役割と目標を明確に組み込む新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2025-03-30T22:43:01Z) - From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - Enhancing Heterogeneous Multi-Agent Cooperation in Decentralized MARL via GNN-driven Intrinsic Rewards [1.179778723980276]
MARL(Multi-agent Reinforcement Learning)は、シーケンシャルな意思決定と制御タスクの鍵となるフレームワークである。
これらのシステムを現実のシナリオに展開するには、分散トレーニング、多様なエージェントセット、そして頻繁な環境報酬信号から学ぶ必要がある。
我々は,新しいグラフニューラルネットワーク(GNN)に基づく本質的なモチベーションを利用して,異種エージェントポリシーの学習を容易にするCoHetアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-12T21:38:40Z) - Transforming Competition into Collaboration: The Revolutionary Role of Multi-Agent Systems and Language Models in Modern Organizations [0.0]
本稿では,マルチエージェントシステム理論(SMA)と大規模言語モデル(LLM)に基づく計算エンティティがユーザインタラクションに与える影響について考察する。
提案手法では,大規模言語モデル (LLM) から発達したエージェントを用いて,行動要素を考慮したプロトタイピングを行う。
我々は,多エージェントシステム理論(SMA)と大規模言語モデル(LLM)に基づく革新的な利用に基づいて,組織戦略に有用なエージェントの開発の可能性を示す。
論文 参考訳(メタデータ) (2024-03-12T15:56:10Z) - Contrastive learning-based agent modeling for deep reinforcement
learning [31.293496061727932]
エージェントモデリングは、マルチエージェントシステムにおけるインテリジェントマシンエージェントの適応ポリシーを設計する際に必須である。
我々は,エゴエージェントの訓練・実行時の局所的な観察のみに依存する,コントラスト学習に基づくエージェントモデリング(CLAM)手法を考案した。
CLAMは、各エピソードの冒頭から、リアルタイムに一貫した高品質なポリシー表現を生成することができる。
論文 参考訳(メタデータ) (2023-12-30T03:44:12Z) - Scalable Multi-Agent Model-Based Reinforcement Learning [1.95804735329484]
我々は,モデルベース強化学習(MBRL)を用いて協調環境における集中型トレーニングをさらに活用するMAMBAという新しい手法を提案する。
エージェント間のコミュニケーションは、実行期間中に各エージェントのワールドモデルを維持するのに十分であり、一方、仮想ロールアウトはトレーニングに使用でき、環境と対話する必要がなくなる。
論文 参考訳(メタデータ) (2022-05-25T08:35:00Z) - Coordinating Policies Among Multiple Agents via an Intelligent
Communication Channel [81.39444892747512]
MARL(Multi-Agent Reinforcement Learning)では、エージェントが直接通信できる特別なチャンネルがしばしば導入される。
本稿では,エージェントの集団的性能を向上させるために,エージェントが提供した信号の伝達と解釈を学習する,インテリジェントなファシリテータを通じてエージェントがコミュニケーションする手法を提案する。
論文 参考訳(メタデータ) (2022-05-21T14:11:33Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - What is Going on Inside Recurrent Meta Reinforcement Learning Agents? [63.58053355357644]
recurrent meta reinforcement learning (meta-rl)エージェントは「学習アルゴリズムの学習」を目的としてrecurrent neural network (rnn)を使用するエージェントである。
部分観測可能なマルコフ決定プロセス(POMDP)フレームワークを用いてメタRL問題を再構成することにより,これらのエージェントの内部動作機構を明らかにする。
論文 参考訳(メタデータ) (2021-04-29T20:34:39Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - Multi-Agent Interactions Modeling with Correlated Policies [53.38338964628494]
本稿では,マルチエージェントインタラクションモデリング問題をマルチエージェント模倣学習フレームワークに実装する。
相関ポリシー(CoDAIL)を用いた分散型適応模倣学習アルゴリズムの開発
様々な実験により、CoDAILはデモレーターに近い複雑な相互作用をより良く再生できることが示されている。
論文 参考訳(メタデータ) (2020-01-04T17:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。