論文の概要: Constrained Black-Box Attacks Against Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2508.09275v1
- Date: Tue, 12 Aug 2025 18:31:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.662997
- Title: Constrained Black-Box Attacks Against Multi-Agent Reinforcement Learning
- Title(参考訳): マルチエージェント強化学習に対する制約付きブラックボックス攻撃
- Authors: Amine Andam, Jamal Bentahar, Mustapha Hedabou,
- Abstract要約: 協調型マルチエージェント強化学習(c-MARL)は急速に進化し、現実世界のアプリケーションに最先端のアルゴリズムを提供している。
しかし、広く普及する上で重要な課題は、敵の攻撃に対する脆弱性の徹底的な調査がないことである。
本稿では、敵が配備されたエージェントの観察のみを収集・摂動できると仮定して、より現実的で制約のある条件下で新たな脆弱性を調査する。
- 参考スコア(独自算出の注目度): 8.080255323094079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative multi-agent reinforcement learning (c-MARL) has rapidly evolved, offering state-of-the-art algorithms for real-world applications, including sensitive domains. However, a key challenge to its widespread adoption is the lack of a thorough investigation into its vulnerabilities to adversarial attacks. Existing work predominantly focuses on training-time attacks or unrealistic scenarios, such as access to policy weights or the ability to train surrogate policies. In this paper, we investigate new vulnerabilities under more realistic and constrained conditions, assuming an adversary can only collect and perturb the observations of deployed agents. We also consider scenarios where the adversary has no access at all. We propose simple yet highly effective algorithms for generating adversarial perturbations designed to misalign how victim agents perceive their environment. Our approach is empirically validated on three benchmarks and 22 environments, demonstrating its effectiveness across diverse algorithms and environments. Furthermore, we show that our algorithm is sample-efficient, requiring only 1,000 samples compared to the millions needed by previous methods.
- Abstract(参考訳): 協調型マルチエージェント強化学習(c-MARL)は急速に進化し、センシティブなドメインを含む現実のアプリケーションに最先端のアルゴリズムを提供する。
しかし、広く普及する上で重要な課題は、敵の攻撃に対する脆弱性の徹底的な調査がないことである。
既存の作業は主に、政策重み付けへのアクセスや代理政策の訓練能力など、訓練時間攻撃や非現実的なシナリオに焦点を当てている。
本稿では,より現実的で制約のある条件下での新たな脆弱性について検討し,敵が配備されたエージェントの観測を収集・摂動できると仮定する。
また、敵が全くアクセスできないシナリオも検討する。
本研究では, 被害者エージェントが環境をどう認識しているかを誤認識するために設計された, 対向的摂動を生成するための, 単純かつ高効率なアルゴリズムを提案する。
提案手法は3つのベンチマークと22の環境において実験的に検証され,その有効性は多様なアルゴリズムと環境にわたって実証されている。
さらに,本アルゴリズムはサンプル効率が高く,従来の手法と比較して1,000サンプルしか必要としないことを示した。
関連論文リスト
- How vulnerable is my policy? Adversarial attacks on modern behavior cloning policies [22.52780232632902]
本稿では,LfD(Learning from Demonstration)アルゴリズムに対する敵対的攻撃の包括的研究について述べる。
我々は,これらの手法の脆弱性について,標的外,標的外,普遍的摂動に対する検討を行った。
いくつかのロボット操作のシミュレーション実験により、現在の手法のほとんどは敵の摂動に非常に弱いことが判明した。
論文 参考訳(メタデータ) (2025-02-06T01:17:39Z) - Adversarial Training Should Be Cast as a Non-Zero-Sum Game [121.95628660889628]
対人訓練の2つのプレイヤーゼロサムパラダイムは、十分な強靭性を発揮できていない。
敵のトレーニングアルゴリズムでよく使われるサロゲートベースの緩和は、ロバスト性に関するすべての保証を無効にすることを示す。
対人訓練の新たな非ゼロサム二段階の定式化は、一致し、場合によっては最先端の攻撃よりも優れたフレームワークをもたらす。
論文 参考訳(メタデータ) (2023-06-19T16:00:48Z) - Probabilistic Categorical Adversarial Attack & Adversarial Training [45.458028977108256]
敵対的な例の存在は、人々が安全クリティカルなタスクにディープニューラルネットワーク(DNN)を適用することに大きな懸念をもたらします。
分類データを用いて敵の例を生成する方法は重要な問題であるが、広範囲にわたる探索が欠如している。
本稿では,離散最適化問題を連続的な問題に変換する確率的カテゴリー逆攻撃(PCAA)を提案する。
論文 参考訳(メタデータ) (2022-10-17T19:04:16Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Robust Reinforcement Learning via Genetic Curriculum [5.421464476555662]
遺伝的カリキュラムは、エージェントが現在失敗しているシナリオを自動的に識別し、関連するカリキュラムを生成するアルゴリズムである。
我々の実証研究は、既存の技術アルゴリズムよりも堅牢性の向上を示し、2倍から8倍のエージェントが失敗する確率の低いトレーニングカリキュラムを提供する。
論文 参考訳(メタデータ) (2022-02-17T01:14:20Z) - Automated Decision-based Adversarial Attacks [48.01183253407982]
我々は、実用的で挑戦的な意思決定ベースのブラックボックスの敵意設定を考える。
この設定では、攻撃者はターゲットモデルに問い合わせるだけで最終分類ラベルを取得できる。
意思決定に基づく攻撃アルゴリズムを自動的に発見する。
論文 参考訳(メタデータ) (2021-05-09T13:15:10Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Protecting Classifiers From Attacks [0.41942958779358663]
マルウェア検出、自動運転システム、不正検出などの複数の領域において、分類アルゴリズムは攻撃を受けやすい。
本稿では,攻撃者の行動の不確実性を考慮したベイズ決定論の枠組みを提案する。
グローバルに、悪意のある攻撃に対して統計的分類アルゴリズムを強固にすることができる。
論文 参考訳(メタデータ) (2020-04-18T21:21:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。