論文の概要: Diffusion Guided Adversarial State Perturbations in Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2511.07701v1
- Date: Wed, 12 Nov 2025 01:12:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.438547
- Title: Diffusion Guided Adversarial State Perturbations in Reinforcement Learning
- Title(参考訳): 強化学習における拡散誘導逆状態摂動
- Authors: Xiaolin Sun, Feidi Liu, Zhengming Ding, ZiZhan Zheng,
- Abstract要約: 強化学習システムは敵の攻撃に弱い。
政策に依存しない拡散型状態摂動攻撃である ShiFT を提案する。
我々の攻撃は、検出を避けるために現実的かつ歴史に整合したまま、真の状態と意味的に異なる状態を生成することができる。
- 参考スコア(独自算出の注目度): 33.206020320762576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning (RL) systems, while achieving remarkable success across various domains, are vulnerable to adversarial attacks. This is especially a concern in vision-based environments where minor manipulations of high-dimensional image inputs can easily mislead the agent's behavior. To this end, various defenses have been proposed recently, with state-of-the-art approaches achieving robust performance even under large state perturbations. However, after closer investigation, we found that the effectiveness of the current defenses is due to a fundamental weakness of the existing $l_p$ norm-constrained attacks, which can barely alter the semantics of image input even under a relatively large perturbation budget. In this work, we propose SHIFT, a novel policy-agnostic diffusion-based state perturbation attack to go beyond this limitation. Our attack is able to generate perturbed states that are semantically different from the true states while remaining realistic and history-aligned to avoid detection. Evaluations show that our attack effectively breaks existing defenses, including the most sophisticated ones, significantly outperforming existing attacks while being more perceptually stealthy. The results highlight the vulnerability of RL agents to semantics-aware adversarial perturbations, indicating the importance of developing more robust policies.
- Abstract(参考訳): 強化学習(RL)システムは、様々な領域で顕著な成功を収める一方で、敵の攻撃に対して脆弱である。
これは特に、高次元画像入力の小さな操作がエージェントの振る舞いを誤解しやすい視覚ベースの環境において問題となる。
この目的のために、近年様々な防衛策が提案されており、最先端のアプローチは大きな状態摂動の下でも堅牢な性能を達成することができる。
しかし, より綿密な調査の結果, 現在の防御効果は, 比較的大きな摂動予算下であっても, 画像入力のセマンティクスをほとんど変更できない, 既存の$l_p$ノルム制約攻撃の根本的な弱点によるものであることが判明した。
本稿では,この制限を超えて,政策に依存しない拡散型国家摂動攻撃である ShiFT を提案する。
我々の攻撃は、検出を避けるために現実的かつ歴史に整合したまま、真の状態と意味的に異なる摂動状態を生成することができる。
評価によると、我々の攻撃は、最も洗練された攻撃を含む既存の防御を効果的に破壊し、より知覚的にステルス性を持ちながら、既存の攻撃を著しく上回っている。
その結果, セマンティクスを意識した逆境摂動に対するRLエージェントの脆弱性が強調され, より堅牢なポリシー開発の重要性が示唆された。
関連論文リスト
- SAJA: A State-Action Joint Attack Framework on Multi-Agent Deep Reinforcement Learning [6.642809648633388]
マルチエージェントディープ強化学習(MADRL)は、自律運転や戦略ゲームといった協調的・競争的なタスクの可能性を示唆している。
MADRLによって訓練されたモデルは、状態や行動に対する敵の摂動に対して脆弱である。
本研究では, 良好な相乗効果を有する国家摩擦合同攻撃(SAJA)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-15T08:08:41Z) - Curriculum-Guided Antifragile Reinforcement Learning for Secure UAV Deconfliction under Observation-Space Attacks [6.367978467906828]
強化学習政策は、観測空間における敵の攻撃に対して脆弱である。
本稿では,段階的対向摂動のカリキュラムに適応するために設計された反フレジブルなRLフレームワークを提案する。
その結果, 反フランジ政策は標準およびロバストなRLベースラインよりも一貫して優れていた。
論文 参考訳(メタデータ) (2025-06-26T10:10:41Z) - Vulnerability Disclosure through Adaptive Black-Box Adversarial Attacks on NIDS [0.393259574660092]
本稿では,ブラックボックス攻撃に対する新たなアプローチを提案する。
システムアクセスを前提としたり、繰り返し探索に依存する従来の作業とは異なり、我々の手法はブラックボックスの制約を厳密に尊重する。
本稿では,変化点検出と因果解析を用いた適応的特徴選択手法を提案する。
論文 参考訳(メタデータ) (2025-06-25T16:10:20Z) - State-Aware Perturbation Optimization for Robust Deep Reinforcement Learning [11.807055530003899]
摂動ステルスネスと状態訪問分散を最適化するために,STARと命名された選択的状態認識強化敵攻撃法を提案する。
情報理論最適化の目的を取り入れ、摂動、環境状態、被害者の行動の相互情報を最大化し、分散した状態・視線分布を確保する。
実験により、STARは最先端のベンチマークより優れていることが示された。
論文 参考訳(メタデータ) (2025-03-26T15:00:07Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Invisible Backdoor Attack Through Singular Value Decomposition [2.681558084723648]
バックドア攻撃はディープニューラルネットワーク(DNN)に深刻なセキュリティ脅威をもたらす
トリガーを知覚しにくく、知覚できないものにするため、様々な目に見えないバックドア攻撃が提案されている。
本稿では,DEBAと呼ばれる目に見えないバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-18T13:25:12Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。