論文の概要: A Semi-Decentralized Approach to Multiagent Control
- arxiv url: http://arxiv.org/abs/2603.11802v1
- Date: Thu, 12 Mar 2026 11:05:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.03466
- Title: A Semi-Decentralized Approach to Multiagent Control
- Title(参考訳): 半分散的手法によるマルチエージェント制御
- Authors: Mahdi Al-Husseini, Mykel J. Kochenderfer, Kyle H. Wray,
- Abstract要約: コミュニケーションの不確実性のある環境における協調エージェントの半分散制御のための表現的フレームワークとアルゴリズムを導入する。
半分散化を部分的に観測可能なマルコフ決定プロセス(POMDP)に拡張する
結果として生じるSDec-POMDPは、分散化およびマルチエージェントのPOMDPと、いくつかの既存の明示的な通信機構を統一する。
- 参考スコア(独自算出の注目度): 24.816348898055523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce an expressive framework and algorithms for the semi-decentralized control of cooperative agents in environments with communication uncertainty. Whereas semi-Markov control admits a distribution over time for agent actions, semi-Markov communication, or what we refer to as semi-decentralization, gives a distribution over time for what actions and observations agents can store in their histories. We extend semi-decentralization to the partially observable Markov decision process (POMDP). The resulting SDec-POMDP unifies decentralized and multiagent POMDPs and several existing explicit communication mechanisms. We present recursive small-step semi-decentralized A* (RS-SDA*), an exact algorithm for generating optimal SDec-POMDP policies. RS-SDA* is evaluated on semi-decentralized versions of several standard benchmarks and a maritime medical evacuation scenario. This paper provides a well-defined theoretical foundation for exploring many classes of multiagent communication problems through the lens of semi-decentralization.
- Abstract(参考訳): コミュニケーションの不確実性のある環境における協調エージェントの半分散制御のための表現的フレームワークとアルゴリズムを導入する。
セミマルコフ制御は、エージェントアクション、セミマルコフ通信、あるいは半分散化と呼ばれるものに対する時間的分布を認めるが、アクションや観察エージェントがヒストリーに格納できる時間的分布を与える。
半分散化を部分的に観測可能なマルコフ決定プロセス(POMDP)に拡張する。
結果として生じるSDec-POMDPは、分散化およびマルチエージェントのPOMDPと、いくつかの既存の明示的な通信機構を統一する。
本稿では,SDec-POMDP ポリシーを最適に生成するためのアルゴリズムとして,再帰的半分散化 A* (RS-SDA*) を提案する。
RS-SDA*は、いくつかの標準ベンチマークと海上医療避難シナリオの半分散バージョンで評価される。
本稿では,半分散化レンズによるマルチエージェント通信問題の多くのクラスを探索するための,よく定義された理論基盤を提供する。
関連論文リスト
- Policy Evaluation in Decentralized POMDPs with Belief Sharing [39.550233049869036]
エージェントが直接環境状態を観察しないような協調的政策評価タスクについて検討する。
本稿では,コミュニケーションネットワーク上での個別更新と局所的インタラクションに依存する,完全に分散化された信念形成戦略を提案する。
論文 参考訳(メタデータ) (2023-02-08T15:54:15Z) - Fully Decentralized, Scalable Gaussian Processes for Multi-Agent
Federated Learning [14.353574903736343]
マルチエージェントシステムにおけるGPトレーニングと予測のための分散およびスケーラブルなアルゴリズムを提案する。
提案手法の有効性を,合成および実データに関する数値実験で示す。
論文 参考訳(メタデータ) (2022-03-06T02:54:13Z) - Multi-Agent MDP Homomorphic Networks [100.74260120972863]
協調型マルチエージェントシステムでは、エージェントの異なる構成とそれらの局所的な観察の間に複雑な対称性が生じる。
単エージェント強化学習における既存の対称性の研究は、完全に集中した環境にのみ一般化できる。
本稿では,ローカル情報のみを用いた分散実行が可能なネットワークのクラスであるマルチエージェントMDPホモモルフィックネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-09T07:46:25Z) - Emergence of Theory of Mind Collaboration in Multiagent Systems [65.97255691640561]
ToMとエージェント間の効果的な協調を開発するための適応的学習アルゴリズムを提案する。
アルゴリズムはToMをモデル化せずに従来の分散実行アルゴリズムを全て上回る2つのゲームで評価する。
論文 参考訳(メタデータ) (2021-09-30T23:28:00Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。