論文の概要: Multi-Agent Online Control with Adversarial Disturbances
- arxiv url: http://arxiv.org/abs/2506.18814v1
- Date: Mon, 23 Jun 2025 16:24:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:37.086154
- Title: Multi-Agent Online Control with Adversarial Disturbances
- Title(参考訳): 対向的外乱を考慮したマルチエージェントオンライン制御
- Authors: Anas Barakat, John Lazarsfeld, Georgios Piliouras, Antonios Varvitsiotis,
- Abstract要約: 障害を伴う多エージェント線形力学系におけるオンライン制御について検討する。
マルチエージェント制御問題により、平衡ギャップ保証を導出する時間変化ポテンシャルゲームが導出されることが示される。
- 参考スコア(独自算出の注目度): 27.753988453170205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent control problems involving a large number of agents with competing and time-varying objectives are increasingly prevalent in applications across robotics, economics, and energy systems. In this paper, we study online control in multi-agent linear dynamical systems with disturbances. In contrast to most prior work in multi-agent control, we consider an online setting where disturbances are adversarial and where each agent seeks to minimize its own, adversarial sequence of convex losses. In this setting, we investigate the robustness of gradient-based controllers from single-agent online control, with a particular focus on understanding how individual regret guarantees are influenced by the number of agents in the system. Under minimal communication assumptions, we prove near-optimal sublinear regret bounds that hold uniformly for all agents. Finally, when the objectives of the agents are aligned, we show that the multi-agent control problem induces a time-varying potential game for which we derive equilibrium gap guarantees.
- Abstract(参考訳): ロボット工学、経済学、エネルギーシステムにまたがる応用において、競合する多数のエージェントと時間変化の目的を含むマルチエージェント制御の問題がますます広まっている。
本稿では,障害を伴う多エージェント線形力学系におけるオンライン制御について検討する。
マルチエージェント制御におけるこれまでのほとんどの作業とは対照的に、障害が逆方向であり、各エージェントが自身の逆方向の凸損失を最小化しようとするオンライン環境を考える。
本研究では,単一エージェントによるオンライン制御における勾配制御の堅牢性について検討し,システム内のエージェント数によって個々の後悔の保証がどのように影響されるかを理解することに焦点を当てた。
最小限の通信仮定の下では、全てのエージェントに対して一様に保持される準最適準線形後悔境界が証明される。
最後に,エージェントの目的が一致している場合,マルチエージェント制御問題により,平衡ギャップ保証を導出する時間変化ポテンシャルゲームが誘導されることを示す。
関連論文リスト
- PeerGuard: Defending Multi-Agent Systems Against Backdoor Attacks Through Mutual Reasoning [8.191214701984162]
マルチエージェントシステムは、複雑なタスクを完了させたり、協力したり、競合したりする自律エージェントとして、高度なAIモデルを活用する。
重要性は増しているが、マルチエージェントシステムの安全性はいまだに未調査である。
本研究では,マルチエージェントシステムにおけるバックドア脆弱性を調査し,エージェントインタラクションに基づく防御機構を提案する。
論文 参考訳(メタデータ) (2025-05-16T19:08:29Z) - Learning Emergence of Interaction Patterns across Independent RL Agents in Multi-Agent Environments [3.0284592792243794]
ボトムアップネットワーク(BUN)は、マルチエージェントの集合を統一エンティティとして扱う。
協調ナビゲーションやトラヒックコントロールなどのタスクを含む,さまざまな協調型マルチエージェントシナリオに対する実証的な評価は,BUNが計算コストを大幅に削減したベースライン手法よりも優れていることを一貫して証明している。
論文 参考訳(メタデータ) (2024-10-03T14:25:02Z) - Collision Avoidance Verification of Multiagent Systems with Learned Policies [9.550601011551024]
本稿では,マルチエージェントフィードバックループ(MA-NFL)の衝突回避特性を検証するための後方到達性に基づくアプローチを提案する。
私たちは多くの不確実性を説明しており、現実のシナリオとよく一致しています。
提案アルゴリズムは,MA-NFLの衝突回避アルゴリズムを模倣するエージェントを用いて,衝突回避特性を検証できることを示す。
論文 参考訳(メタデータ) (2024-03-05T20:36:26Z) - MADiff: Offline Multi-agent Learning with Diffusion Models [79.18130544233794]
MADiffは拡散型マルチエージェント学習フレームワークである。
分散ポリシと集中型コントローラの両方として機能する。
実験の結果,MADiffは様々なマルチエージェント学習タスクにおいて,ベースラインアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2023-05-27T02:14:09Z) - On the Complexity of Multi-Agent Decision Making: From Learning in Games
to Partial Monitoring [105.13668993076801]
マルチエージェント強化学習(MARL)理論における中心的な問題は、構造条件やアルゴリズムの原理がサンプル効率の学習保証につながるかを理解することである。
本稿では,複数のエージェントを用いた対話型意思決定のための一般的な枠組みとして,この問題について考察する。
マルチエージェント意思決定における統計的複雑性を特徴付けることは、単一エージェント決定の統計的複雑性を特徴付けることと等価であることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:46:22Z) - Learning From Good Trajectories in Offline Multi-Agent Reinforcement
Learning [98.07495732562654]
オフラインマルチエージェント強化学習(MARL)は、事前コンパイルされたデータセットから効果的なマルチエージェントポリシーを学ぶことを目的としている。
オフラインのMARLが学んだエージェントは、しばしばこのランダムなポリシーを継承し、チーム全体のパフォーマンスを脅かす。
この問題に対処するために,共有個人軌道(SIT)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-28T18:11:26Z) - A Regret Minimization Approach to Multi-Agent Control [24.20403443262127]
本研究では,動的システムのマルチエージェント制御の問題点について考察する。
分散アルゴリズムに対して,任意の(標準的な)後悔最小化制御法から最小化する。
本研究では,分散手法が障害に対して頑健であり,動的に逆向きに摂動することを示す。
論文 参考訳(メタデータ) (2022-01-28T14:57:59Z) - Plan Better Amid Conservatism: Offline Multi-Agent Reinforcement
Learning with Actor Rectification [74.10976684469435]
オフライン強化学習(RL)アルゴリズムは、直接マルチエージェント設定に転送することができる。
本稿では,この重要な課題に対処するために,Actor Rectification (OMAR) を用いたオフラインマルチエージェント RL を提案する。
OMARはマルチエージェント連続制御ベンチマークにおける最先端性能と強いベースラインを著しく上回る。
論文 参考訳(メタデータ) (2021-11-22T13:27:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。