論文の概要: Deep Reinforcement Learning for Multi-Agent Coordination
- arxiv url: http://arxiv.org/abs/2510.03592v1
- Date: Sat, 04 Oct 2025 00:47:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.139019
- Title: Deep Reinforcement Learning for Multi-Agent Coordination
- Title(参考訳): マルチエージェントコーディネーションのための深層強化学習
- Authors: Kehinde O. Aina, Sehoon Ha,
- Abstract要約: 本稿では,仮想フェロモンを用いて局所的・社会的相互作用をモデル化するS-MADRL(Stigmergic Multi-Agent Deep Reinforcement Learning)フレームワークを提案する。
我々は,ロボットが非対称な作業負荷分布に自己組織化される,最大8つのエージェントの最も効果的な協調を実現していることを示す。
この創発的行動は、自然界で観察される戦略に類似しており、混雑した環境下での分散マルチエージェント協調のためのスケーラブルなソリューションを示している。
- 参考スコア(独自算出の注目度): 8.250169938213558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the challenge of coordinating multiple robots in narrow and confined environments, where congestion and interference often hinder collective task performance. Drawing inspiration from insect colonies, which achieve robust coordination through stigmergy -- modifying and interpreting environmental traces -- we propose a Stigmergic Multi-Agent Deep Reinforcement Learning (S-MADRL) framework that leverages virtual pheromones to model local and social interactions, enabling decentralized emergent coordination without explicit communication. To overcome the convergence and scalability limitations of existing algorithms such as MADQN, MADDPG, and MAPPO, we leverage curriculum learning, which decomposes complex tasks into progressively harder sub-problems. Simulation results show that our framework achieves the most effective coordination of up to eight agents, where robots self-organize into asymmetric workload distributions that reduce congestion and modulate group performance. This emergent behavior, analogous to strategies observed in nature, demonstrates a scalable solution for decentralized multi-agent coordination in crowded environments with communication constraints.
- Abstract(参考訳): 狭い環境下で複数のロボットを協調させるという課題に対処する。
昆虫群集からのインスピレーションを得て, 環境痕跡の修正・解釈を行うとともに, 仮想フェロモンを利用して局所的・社会的相互作用をモデル化し, 明示的なコミュニケーションを伴わない分散的創発的協調を可能にする, スティグメオリン多エージェント深層強化学習(S-MADRL)フレームワークを提案する。
MADQN, MADDPG, MAPPOといった既存のアルゴリズムの収束性とスケーラビリティの限界を克服するために, 複雑なタスクを段階的に難しいサブプロブレムに分解するカリキュラム学習を利用する。
シミュレーションの結果,ロボットが非対称な作業負荷分布に自己組織化し,混雑を低減し,グループ性能を変調する,最大8つのエージェントの最適調整を実現することが示唆された。
この創発的行動は、自然界で観察された戦略に類似しており、通信制約のある混在環境における分散マルチエージェント協調のためのスケーラブルなソリューションを実証している。
関連論文リスト
- Learning to Interact in World Latent for Team Coordination [53.51290193631586]
本研究は,多エージェント強化学習(MARL)におけるチーム協調を支援するために,対話型ワールドラテント(IWoL)という新しい表現学習フレームワークを提案する。
コミュニケーションプロトコルを直接モデル化することにより,エージェント間関係とタスク固有の世界情報とを協調的にキャプチャする学習可能な表現空間を構築する。
私たちの表現は、各エージェントの暗黙のラテントとしてだけでなく、コミュニケーションのための明示的なメッセージとしても使用できます。
論文 参考訳(メタデータ) (2025-09-29T22:13:39Z) - Strategic Coordination for Evolving Multi-agent Systems: A Hierarchical Reinforcement and Collective Learning Approach [0.0]
強化学習は、シーケンシャルな意思決定をモデル化する方法を提供する。
エージェントは、MARLを使用して高レベル戦略を採り、アクションスペース削減のためのプランをグループ化する。
低レベルの集団学習層は、効率的で分散化された協調的な決定を保証する。
論文 参考訳(メタデータ) (2025-09-22T17:58:45Z) - Multi Robot Coordination in Highly Dynamic Environments: Tackling Asymmetric Obstacles and Limited Communication [1.8374319565577155]
本稿では,極めて活発なシナリオにおけるタスク割り当てを扱うためのアプローチを提案する。
低通信シナリオにおいて自律エージェントの動作を効率的にオーケストレーションする分散コーディネート手法を提案する。
我々のアプローチは、公式のRoboCupコンペティションでNAOロボットのチームを用いて、シミュレーションと現実世界で検証されてきた。
論文 参考訳(メタデータ) (2025-09-09T22:11:34Z) - Q-Learning-Driven Adaptive Rewiring for Cooperative Control in Heterogeneous Networks [0.0]
そこで本研究では,本論文で研究されるメカニズムに基づく適応的リウィリングのQラーニングに基づく変種を提案する。
ネットワーク構成を体系的に探索することで,完全適応的なリワイアリングにより協調レベルが向上することを示す。
本研究は,複雑な適応システムにおけるインテリジェンス駆動の協調パターン形成を理解するための新しいパラダイムを構築した。
論文 参考訳(メタデータ) (2025-09-01T01:52:56Z) - Multi-Agent Collaboration via Evolving Orchestration [61.93162413517026]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な成果を上げているが、そのモノリシックな性質は複雑な問題解決におけるスケーラビリティと効率を制限している。
LLMをベースとしたマルチエージェントコラボレーションのためのパウチスタイルのパラダイムを提案し、中央オーケストレータがタスク状態の進化に応じてエージェントを動的に指示する。
クローズドドメインおよびオープンドメインシナリオの実験により,この手法は計算コストを低減し,優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2025-05-26T07:02:17Z) - Distributed Autonomous Swarm Formation for Dynamic Network Bridging [40.27919181139919]
離散化された部分観測可能なマルコフ決定過程(Dec-POMDP)における動的ネットワークブリッジ問題について定式化する。
グラフ畳み込み強化学習(DGN)に基づく問題に対するマルチエージェント強化学習(MARL)アプローチを提案する。
提案手法はシミュレーション環境で評価し,将来性を示す集中型ベースラインと比較した。
論文 参考訳(メタデータ) (2024-04-02T01:45:03Z) - Decentralized Adversarial Training over Graphs [44.03711922549992]
近年、敵攻撃に対する機械学習モデルの脆弱性が注目されている。
マルチエージェントシステムのための分散逆数フレームワークを開発する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - ROMAX: Certifiably Robust Deep Multiagent Reinforcement Learning via
Convex Relaxation [32.091346776897744]
サイバー物理攻撃は、マルチエージェント強化学習の堅牢性に挑戦することができる。
我々は,他のエージェントの最悪のポリシー更新を推測するミニマックスMARL手法を提案する。
論文 参考訳(メタデータ) (2021-09-14T16:18:35Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。