論文の概要: Online Multi-Agent Control with Adversarial Disturbances
- arxiv url: http://arxiv.org/abs/2506.18814v2
- Date: Fri, 26 Sep 2025 09:12:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 14:23:57.471041
- Title: Online Multi-Agent Control with Adversarial Disturbances
- Title(参考訳): 対向的外乱を考慮したオンラインマルチエージェント制御
- Authors: Anas Barakat, John Lazarsfeld, Georgios Piliouras, Antonios Varvitsiotis,
- Abstract要約: 本研究では, 対向障害を考慮した多エージェント線形力学系におけるオンライン制御について検討する。
本研究は,ゲームにおけるオンライン学習によるオンライン制御のブリッジ化の第一歩として,個人のパフォーマンス保証の堅牢性を確立した。
- 参考スコア(独自算出の注目度): 26.881668342043373
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online multi-agent control problems, where many agents pursue competing and time-varying objectives, are widespread in domains such as autonomous robotics, economics, and energy systems. In these settings, robustness to adversarial disturbances is critical. In this paper, we study online control in multi-agent linear dynamical systems subject to such disturbances. In contrast to most prior work in multi-agent control, which typically assumes noiseless or stochastically perturbed dynamics, we consider an online setting where disturbances can be adversarial, and where each agent seeks to minimize its own sequence of convex losses. Under two feedback models, we analyze online gradient-based controllers with local policy updates. We prove per-agent regret bounds that are sublinear and near-optimal in the time horizon and that highlight different scalings with the number of agents. When agents' objectives are aligned, we further show that the multi-agent control problem induces a time-varying potential game for which we derive equilibrium tracking guarantees. Together, our results take a first step in bridging online control with online learning in games, establishing robust individual and collective performance guarantees in dynamic continuous-state environments.
- Abstract(参考訳): 多くのエージェントが競合や時間によって異なる目的を追求するオンラインマルチエージェント制御問題は、自律型ロボット、経済学、エネルギーシステムといった分野に広まっている。
これらの設定では、敵の障害に対する堅牢性が重要である。
本稿では,このような障害を受けるマルチエージェント線形力学系におけるオンライン制御について検討する。
ノイズレスあるいは確率論的に摂動力学を仮定するマルチエージェント制御におけるこれまでのほとんどの研究とは対照的に、障害が対角的に起こりうるオンライン環境と、各エージェントが自身の凸損失列を最小化しようとするオンライン環境を考える。
2つのフィードバックモデルの下で、ローカルポリシー更新でオンライン勾配ベースのコントローラを解析する。
我々は,時間的地平線上ではサブ線形でほぼ最適であり,エージェント数で異なるスケーリングを目立たせるアジェント毎の後悔境界を証明した。
エージェントの目的が一致している場合、マルチエージェント制御問題により、平衡追跡保証を導出する時間変化ポテンシャルゲームが誘導されることを示す。
本研究は,ゲームにおけるオンライン学習によるオンライン制御のブリッジ化の第一歩として,動的連続状態環境における個人的および集団的パフォーマンス保証の確立を図った。
関連論文リスト
- PeerGuard: Defending Multi-Agent Systems Against Backdoor Attacks Through Mutual Reasoning [8.191214701984162]
マルチエージェントシステムは、複雑なタスクを完了させたり、協力したり、競合したりする自律エージェントとして、高度なAIモデルを活用する。
重要性は増しているが、マルチエージェントシステムの安全性はいまだに未調査である。
本研究では,マルチエージェントシステムにおけるバックドア脆弱性を調査し,エージェントインタラクションに基づく防御機構を提案する。
論文 参考訳(メタデータ) (2025-05-16T19:08:29Z) - Free Agent in Agent-Based Mixture-of-Experts Generative AI Framework [0.0]
強化学習自由エージェント (Reinforcement Learning Free Agent, RLFA) アルゴリズムは、永続的な過パフォーマンスを示すエージェントを検出し、除去するための報酬に基づくメカニズムを導入する。
第一のユースケースは不正検出であり、RLFAは事前に設定された閾値以下で検出精度が低下するエージェントを即座に交換する。
このダイナミックでフリーの緊急サイクルは、持続的な正確さ、出現する脅威への迅速な適応、進行中の運用に対する最小限の中断を保証する。
論文 参考訳(メタデータ) (2025-01-29T13:00:22Z) - Learning Emergence of Interaction Patterns across Independent RL Agents in Multi-Agent Environments [3.0284592792243794]
ボトムアップネットワーク(BUN)は、マルチエージェントの集合を統一エンティティとして扱う。
協調ナビゲーションやトラヒックコントロールなどのタスクを含む,さまざまな協調型マルチエージェントシナリオに対する実証的な評価は,BUNが計算コストを大幅に削減したベースライン手法よりも優れていることを一貫して証明している。
論文 参考訳(メタデータ) (2024-10-03T14:25:02Z) - EvoAgent: Towards Automatic Multi-Agent Generation via Evolutionary Algorithms [55.77492625524141]
EvoAgentは、特殊エージェントをマルチエージェントシステムに自動的に拡張するジェネリックメソッドである。
EvoAgent は LLM エージェントのタスク解決能力を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-06-20T11:49:23Z) - Collision Avoidance Verification of Multiagent Systems with Learned Policies [9.550601011551024]
本稿では,マルチエージェントフィードバックループ(MA-NFL)の衝突回避特性を検証するための後方到達性に基づくアプローチを提案する。
私たちは多くの不確実性を説明しており、現実のシナリオとよく一致しています。
提案アルゴリズムは,MA-NFLの衝突回避アルゴリズムを模倣するエージェントを用いて,衝突回避特性を検証できることを示す。
論文 参考訳(メタデータ) (2024-03-05T20:36:26Z) - Mix-ME: Quality-Diversity for Multi-Agent Learning [11.130914000431353]
人気のMAP-Elitesアルゴリズムのマルチエージェント版であるMix-MEを紹介する。
提案手法は,可観測性のある連続制御タスクの多種多様について評価する。
論文 参考訳(メタデータ) (2023-11-03T10:36:54Z) - Counterfactual Conservative Q Learning for Offline Multi-agent
Reinforcement Learning [54.788422270960496]
我々はCounterFactual conservative Q-Learning (CFCQL) という新しいマルチエージェントオフラインRLアルゴリズムを提案する。
CFCQLは、各エージェントの保守的正規化を非現実的に別々に計算し、それらを線形に組み合わせて全体的な保守的価値推定を実現する。
単一エージェントの保守的手法のように, まだ過小評価特性と性能保証を享受していることが証明されているが, 誘導正規化と安全な政策改善境界はエージェント番号とは無関係である。
論文 参考訳(メタデータ) (2023-09-22T08:10:25Z) - MADiff: Offline Multi-agent Learning with Diffusion Models [79.18130544233794]
MADiffは拡散型マルチエージェント学習フレームワークである。
分散ポリシと集中型コントローラの両方として機能する。
実験の結果,MADiffは様々なマルチエージェント学習タスクにおいて,ベースラインアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2023-05-27T02:14:09Z) - On the Complexity of Multi-Agent Decision Making: From Learning in Games
to Partial Monitoring [105.13668993076801]
マルチエージェント強化学習(MARL)理論における中心的な問題は、構造条件やアルゴリズムの原理がサンプル効率の学習保証につながるかを理解することである。
本稿では,複数のエージェントを用いた対話型意思決定のための一般的な枠組みとして,この問題について考察する。
マルチエージェント意思決定における統計的複雑性を特徴付けることは、単一エージェント決定の統計的複雑性を特徴付けることと等価であることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:46:22Z) - Learning From Good Trajectories in Offline Multi-Agent Reinforcement
Learning [98.07495732562654]
オフラインマルチエージェント強化学習(MARL)は、事前コンパイルされたデータセットから効果的なマルチエージェントポリシーを学ぶことを目的としている。
オフラインのMARLが学んだエージェントは、しばしばこのランダムなポリシーを継承し、チーム全体のパフォーマンスを脅かす。
この問題に対処するために,共有個人軌道(SIT)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-28T18:11:26Z) - A Regret Minimization Approach to Multi-Agent Control [24.20403443262127]
本研究では,動的システムのマルチエージェント制御の問題点について考察する。
分散アルゴリズムに対して,任意の(標準的な)後悔最小化制御法から最小化する。
本研究では,分散手法が障害に対して頑健であり,動的に逆向きに摂動することを示す。
論文 参考訳(メタデータ) (2022-01-28T14:57:59Z) - Plan Better Amid Conservatism: Offline Multi-Agent Reinforcement
Learning with Actor Rectification [74.10976684469435]
オフライン強化学習(RL)アルゴリズムは、直接マルチエージェント設定に転送することができる。
本稿では,この重要な課題に対処するために,Actor Rectification (OMAR) を用いたオフラインマルチエージェント RL を提案する。
OMARはマルチエージェント連続制御ベンチマークにおける最先端性能と強いベースラインを著しく上回る。
論文 参考訳(メタデータ) (2021-11-22T13:27:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。