論文の概要: SAJA: A State-Action Joint Attack Framework on Multi-Agent Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2510.13262v1
- Date: Wed, 15 Oct 2025 08:08:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.563923
- Title: SAJA: A State-Action Joint Attack Framework on Multi-Agent Deep Reinforcement Learning
- Title(参考訳): SAJA:多エージェント深層強化学習のためのステート・アクション・ジョイント・アタック・フレームワーク
- Authors: Weiqi Guo, Guanjun Liu, Ziyuan Zhou,
- Abstract要約: マルチエージェントディープ強化学習(MADRL)は、自律運転や戦略ゲームといった協調的・競争的なタスクの可能性を示唆している。
MADRLによって訓練されたモデルは、状態や行動に対する敵の摂動に対して脆弱である。
本研究では, 良好な相乗効果を有する国家摩擦合同攻撃(SAJA)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.642809648633388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-Agent Deep Reinforcement Learning (MADRL) has shown potential for cooperative and competitive tasks such as autonomous driving and strategic gaming. However, models trained by MADRL are vulnerable to adversarial perturbations on states and actions. Therefore, it is essential to investigate the robustness of MADRL models from an attack perspective. Existing studies focus on either state-only attacks or action-only attacks, but do not consider how to effectively joint them. Simply combining state and action perturbations such as randomly perturbing states and actions does not exploit their potential synergistic effects. In this paper, we propose the State-Action Joint Attack (SAJA) framework that has a good synergistic effects. SAJA consists of two important phases: (1) In the state attack phase, a multi-step gradient ascent method utilizes both the actor network and the critic network to compute an adversarial state, and (2) in the action attack phase, based on the perturbed state, a second gradient ascent uses the critic network to craft the final adversarial action. Additionally, a heuristic regularizer measuring the distance between the perturbed actions and the original clean ones is added into the loss function to enhance the effectiveness of the critic's guidance. We evaluate SAJA in the Multi-Agent Particle Environment (MPE), demonstrating that (1) it outperforms and is more stealthy than state-only or action-only attacks, and (2) existing state or action defense methods cannot defend its attacks.
- Abstract(参考訳): マルチエージェントディープ強化学習(MADRL)は、自律運転や戦略ゲームといった協調的・競争的なタスクの可能性を示唆している。
しかし、MADRLによって訓練されたモデルは、状態や行動に対する敵の摂動に対して脆弱である。
したがって、攻撃の観点からMADRLモデルのロバスト性を検討することが不可欠である。
既存の研究は州のみの攻撃か行動のみの攻撃に焦点を合わせているが、効果的に連携する方法は検討していない。
ランダムな摂動状態や行動のような状態と行動の摂動を組み合わせるだけでは、その潜在的な相乗効果を利用できない。
本稿では, 良好な相乗効果を有する国家摩擦合同攻撃(SAJA)フレームワークを提案する。
SAJAは、(1)状態攻撃フェーズでは、アクターネットワークと批評家ネットワークの両方を用いて敵状態を計算する多段階勾配上昇法、(2)障害状態に基づいて行動攻撃フェーズでは、(2)批判ネットワークを用いて最終敵行動を作成する。
さらに、歪んだ動作と元のクリーンな動作の距離を測定するヒューリスティック・レギュレータを損失関数に追加し、批評家の指導の有効性を高める。
我々は,多エージェント粒子環境(MPE)におけるSAJAの評価を行い,(1)国家のみの攻撃や行動のみの攻撃よりも優れ,ステルス性が高いこと,(2)既存の状態や行動防御法では攻撃を防げないことを実証した。
関連論文リスト
- Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Embodied Laser Attack:Leveraging Scene Priors to Achieve Agent-based Robust Non-contact Attacks [13.726534285661717]
本稿では,非接触レーザー攻撃を動的に調整する新しい枠組みであるEmbodied Laser Attack (ELA)を紹介する。
認識モジュールのために,ERAは交通シーンの本質的な事前知識に基づいて,局所的な視点変換ネットワークを革新的に開発してきた。
決定と制御モジュールのために、ERAは時間を要するアルゴリズムを採用する代わりに、データ駆動の強化学習で攻撃エージェントを訓練する。
論文 参考訳(メタデータ) (2023-12-15T06:16:17Z) - Attacking Cooperative Multi-Agent Reinforcement Learning by Adversarial Minority Influence [41.14664289570607]
Adrial Minority Influence (AMI) は実用的なブラックボックス攻撃であり、被害者のパラメータを知らずに起動できる。
AMIは複雑なマルチエージェント相互作用とエージェントの協調的な目標を考えることでも強い。
我々は、実世界のロボット群に対する最初の攻撃と、シミュレーションされた環境における事実上の愚かなエージェントを、全体として最悪のシナリオへと攻撃することに成功した。
論文 参考訳(メタデータ) (2023-02-07T08:54:37Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - RoMFAC: A robust mean-field actor-critic reinforcement learning against
adversarial perturbations on states [2.5204420653245245]
MFAC(Mean-field Actor-Critic reinforcement learning)はマルチエージェント分野においてよく知られている。
チームの報酬を著しく下げることのできる、状態の摂動に敏感です。
本研究は2つのイノベーションを持つRoMFAC(Roust Mean-field Actor-Critic reinforcement learning)を提案する。
論文 参考訳(メタデータ) (2022-05-15T09:28:53Z) - Targeted Attack on Deep RL-based Autonomous Driving with Learned Visual
Patterns [18.694795507945603]
近年の研究では、敵の攻撃に対する深い強化学習を通じて学んだコントロールポリシーの脆弱性が実証されている。
本研究では, 物理的対象物に配置した視覚的学習パターンを用いて, 標的攻撃の実現可能性について検討する。
論文 参考訳(メタデータ) (2021-09-16T04:59:06Z) - Stochastic Security: Adversarial Defense Using Long-Run Dynamics of
Energy-Based Models [82.03536496686763]
敵対的攻撃に対するディープ・ネットワークの脆弱性は、認識とセキュリティの両方の観点から、ディープ・ラーニングの中心的な問題である。
我々は,自然学習型分類器の保護に重点を置き,マルコフ・チェイン・モンテカルロ (MCMC) とエネルギーベースモデル (EBM) を併用して敵の浄化を行った。
本研究は,1)現実的な長期MCMCサンプルを用いたEMMの訓練方法の改善,2)防衛の理論的曖昧さを解消する期待・オフバー・トランスフォーメーション(EOT)ディフェンス,3)自然に訓練された分類器と競争的ディフェンスのための最先端の対人ディフェンス,である。
論文 参考訳(メタデータ) (2020-05-27T17:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。