論文の概要: Multi-Agent Conditional Diffusion Model with Mean Field Communication as Wireless Resource Allocation Planner
- arxiv url: http://arxiv.org/abs/2510.22969v1
- Date: Mon, 27 Oct 2025 03:42:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 17:41:21.9999
- Title: Multi-Agent Conditional Diffusion Model with Mean Field Communication as Wireless Resource Allocation Planner
- Title(参考訳): 無線リソース割り当てプランナとしての平均場通信を用いたマルチエージェント条件拡散モデル
- Authors: Kechen Meng, Sinuo Zhang, Rongpeng Li, Xiangming Meng, Chan Wang, Ming Lei, Zhifeng Zhao,
- Abstract要約: 無線通信システムでは、QoS(Quality of Service)の強化において、効率的かつ適応的なリソース割り当てが重要な役割を担っている。
対照的に、分散トレーニングと分散実行(DTDE)パラダイムは、分散学習と意思決定を可能にする。
分散通信資源管理のためのマルチエージェント条件拡散モデルプランナ(MACDMP)を提案する。
- 参考スコア(独自算出の注目度): 16.759740918605768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In wireless communication systems, efficient and adaptive resource allocation plays a crucial role in enhancing overall Quality of Service (QoS). While centralized Multi-Agent Reinforcement Learning (MARL) frameworks rely on a central coordinator for policy training and resource scheduling, they suffer from scalability issues and privacy risks. In contrast, the Distributed Training with Decentralized Execution (DTDE) paradigm enables distributed learning and decision-making, but it struggles with non-stationarity and limited inter-agent cooperation, which can severely degrade system performance. To overcome these challenges, we propose the Multi-Agent Conditional Diffusion Model Planner (MA-CDMP) for decentralized communication resource management. Built upon the Model-Based Reinforcement Learning (MBRL) paradigm, MA-CDMP employs Diffusion Models (DMs) to capture environment dynamics and plan future trajectories, while an inverse dynamics model guides action generation, thereby alleviating the sample inefficiency and slow convergence of conventional DTDE methods. Moreover, to approximate large-scale agent interactions, a Mean-Field (MF) mechanism is introduced as an assistance to the classifier in DMs. This design mitigates inter-agent non-stationarity and enhances cooperation with minimal communication overhead in distributed settings. We further theoretically establish an upper bound on the distributional approximation error introduced by the MF-based diffusion generation, guaranteeing convergence stability and reliable modeling of multi-agent stochastic dynamics. Extensive experiments demonstrate that MA-CDMP consistently outperforms existing MARL baselines in terms of average reward and QoS metrics, showcasing its scalability and practicality for real-world wireless network optimization.
- Abstract(参考訳): 無線通信システムでは、QoS(Quality of Service)の全体的な向上において、効率的かつ適応的なリソース割り当てが重要な役割を担っている。
集中型マルチエージェント強化学習(MARL)フレームワークは、ポリシートレーニングとリソーススケジューリングの中央コーディネータに依存しているが、スケーラビリティの問題とプライバシーリスクに悩まされている。
対照的に、DTDE(Distributed Training with Decentralized Execution)パラダイムは、分散学習と意思決定を可能にするが、非定常性と限定的なエージェント間の協力に苦しむため、システムパフォーマンスが著しく低下する可能性がある。
これらの課題を克服するために、分散通信資源管理のためのマルチエージェント条件拡散モデルプランナ(MA-CDMP)を提案する。
モデルベース強化学習(MBRL)パラダイムに基づいて、MA-CDMPは拡散モデル(DM)を用いて環境力学を捉え、将来の軌道を計画する。
さらに、大規模エージェントの相互作用を近似するために、DMにおける分類器の補助として平均フィールド(MF)機構を導入する。
この設計は、エージェント間非定常性を緩和し、分散環境での通信オーバーヘッドを最小限に抑える。
さらに、MFベースの拡散生成によって生じる分布近似誤差の上限を理論的に確立し、収束安定性とマルチエージェント確率力学の信頼性を保証した。
大規模な実験により、MA-CDMPは平均報酬とQoSの指標で既存のMARLベースラインを一貫して上回り、実世界の無線ネットワーク最適化のスケーラビリティと実用性を示している。
関連論文リスト
- Strategic Coordination for Evolving Multi-agent Systems: A Hierarchical Reinforcement and Collective Learning Approach [0.0]
強化学習は、シーケンシャルな意思決定をモデル化する方法を提供する。
エージェントは、MARLを使用して高レベル戦略を採り、アクションスペース削減のためのプランをグループ化する。
低レベルの集団学習層は、効率的で分散化された協調的な決定を保証する。
論文 参考訳(メタデータ) (2025-09-22T17:58:45Z) - HypeMARL: Multi-Agent Reinforcement Learning For High-Dimensional, Parametric, and Distributed Systems [3.072554747025686]
HypeMARLは高次元・パラメトリック・分散システムの制御に適した分散強化学習アルゴリズムである。
我々は,HypeMARLがエージェントの集団行動を通じてシステムを効果的に制御できることを示す。
論文 参考訳(メタデータ) (2025-09-20T14:42:09Z) - Latent Diffusion Model Based Denoising Receiver for 6G Semantic Communication: From Stochastic Differential Theory to Application [11.385703484113552]
生成人工知能(GAI)を利用した新しい意味コミュニケーションフレームワークを提案する。
意味的特徴抽出のための変分オートエンコーダを組み合わせた潜在拡散モデル(LDM)に基づくセマンティックコミュニケーションフレームワークを提案する。
提案システムはゼロショットの一般化をサポートし,低SNRおよびアウト・オブ・ディストリビューション条件下での優れた性能を実現する訓練自由フレームワークである。
論文 参考訳(メタデータ) (2025-06-06T03:20:32Z) - Heterogeneous Multi-Agent Reinforcement Learning for Distributed Channel Access in WLANs [47.600901884970845]
本稿では,マルチエージェント強化学習(MARL)を用いて,無線ローカルネットワークにおける分散チャネルアクセスに対処する。
特に、エージェントがモデルトレーニングに価値ベースまたはポリシーベースの強化学習アルゴリズムを不均一に採用する、より実践的なケースについて考察する。
我々は、分散実行パラダイムを用いた集中型トレーニングを採用し、異種エージェントの協調を可能にする、異種MARLトレーニングフレームワークQPMIXを提案する。
論文 参考訳(メタデータ) (2024-12-18T13:50:31Z) - Decentralized Transformers with Centralized Aggregation are Sample-Efficient Multi-Agent World Models [106.35361897941898]
本稿では,分散化された局所力学を拡張性のために学習するマルチエージェントRL(MARL)の新たな世界モデルを提案する。
また、集中表現アグリゲーションを可能にする効果的なソリューションとしてPerceiver Transformerを導入する。
Starcraft Multi-Agent Challenge (SMAC) の結果は、サンプル効率と全体的な性能の両方において、強力なモデルフリーアプローチと既存のモデルベース手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-06-22T12:40:03Z) - MADiff: Offline Multi-agent Learning with Diffusion Models [79.18130544233794]
MADiffは拡散型マルチエージェント学習フレームワークである。
分散ポリシと集中型コントローラの両方として機能する。
実験の結果,MADiffは様々なマルチエージェント学習タスクにおいて,ベースラインアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2023-05-27T02:14:09Z) - Scalable Multi-Agent Model-Based Reinforcement Learning [1.95804735329484]
我々は,モデルベース強化学習(MBRL)を用いて協調環境における集中型トレーニングをさらに活用するMAMBAという新しい手法を提案する。
エージェント間のコミュニケーションは、実行期間中に各エージェントのワールドモデルを維持するのに十分であり、一方、仮想ロールアウトはトレーニングに使用でき、環境と対話する必要がなくなる。
論文 参考訳(メタデータ) (2022-05-25T08:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。