論文の概要: SEBA: Sample-Efficient Black-Box Attacks on Visual Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2511.09681v1
- Date: Fri, 14 Nov 2025 01:04:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.410775
- Title: SEBA: Sample-Efficient Black-Box Attacks on Visual Reinforcement Learning
- Title(参考訳): SEBA:視覚強化学習におけるブラックボックス攻撃
- Authors: Tairan Huang, Yulin Jin, Junxu Liu, Qingqing Ye, Haibo Hu,
- Abstract要約: 視覚的RLエージェントに対するブラックボックス敵攻撃のための,サンプル効率のよいフレームワークSEBAを提案する。
SEBAは、敵対的な条件下で累積報酬を推定するシャドウQモデル、視覚的に知覚できない摂動を生成する生成逆ネットワーク、および実世界のクエリを減らすために環境力学をシミュレートする世界モデルを統合する。
MuJoCoとAtariベンチマークの実験では、SEBAは累積報酬を著しく減らし、視覚的忠実性を保ち、環境相互作用を大幅に減らしている。
- 参考スコア(独自算出の注目度): 12.714658429306086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual reinforcement learning has achieved remarkable progress in visual control and robotics, but its vulnerability to adversarial perturbations remains underexplored. Most existing black-box attacks focus on vector-based or discrete-action RL, and their effectiveness on image-based continuous control is limited by the large action space and excessive environment queries. We propose SEBA, a sample-efficient framework for black-box adversarial attacks on visual RL agents. SEBA integrates a shadow Q model that estimates cumulative rewards under adversarial conditions, a generative adversarial network that produces visually imperceptible perturbations, and a world model that simulates environment dynamics to reduce real-world queries. Through a two-stage iterative training procedure that alternates between learning the shadow model and refining the generator, SEBA achieves strong attack performance while maintaining efficiency. Experiments on MuJoCo and Atari benchmarks show that SEBA significantly reduces cumulative rewards, preserves visual fidelity, and greatly decreases environment interactions compared to prior black-box and white-box methods.
- Abstract(参考訳): 視覚強化学習は、視覚制御とロボット工学において顕著な進歩を遂げてきたが、敵の摂動に対するその脆弱性はいまだに解明されていない。
既存のブラックボックス攻撃のほとんどはベクトルベースまたは離散アクションRLに重点を置いており、画像ベースの連続制御の有効性は大きなアクション空間と過剰な環境クエリによって制限される。
視覚的RLエージェントに対するブラックボックス敵攻撃のための,サンプル効率のよいフレームワークSEBAを提案する。
SEBAは、敵対的な条件下で累積報酬を推定するシャドウQモデル、視覚的に知覚できない摂動を生成する生成逆ネットワーク、および実世界のクエリを減らすために環境力学をシミュレートする世界モデルを統合する。
シャドウモデル学習とジェネレータの精製を交互に行う2段階反復訓練により、SEBAは効率を保ちながら強力な攻撃性能を達成する。
MuJoCoとAtariベンチマークの実験では、SEBAは累積報酬を著しく低減し、視覚的忠実性を保ち、以前のブラックボックス法やホワイトボックス法と比較して環境相互作用を大幅に低減している。
関連論文リスト
- Towards Adaptive Meta-Gradient Adversarial Examples for Visual Tracking [22.56488340107275]
視覚的トラッキングのための適応的メタ段階的対向攻撃法(AMGA)を提案する。
その結果, AMGAは攻撃性能, 転送可能性, および敵対例の誤認を著しく改善することがわかった。
論文 参考訳(メタデータ) (2025-05-13T22:26:19Z) - Adversarial Attacks on LiDAR-Based Tracking Across Road Users: Robustness Evaluation and Target-Aware Black-Box Method [6.6391733681417415]
本稿では,3次元物体追跡の文脈において,敵攻撃を行うための統一的なフレームワークを提案する。
ブラックボックス攻撃のシナリオに対処するために,新たなトランスファーベースアプローチであるTarget-aware Perturbation Generation (TAPG)アルゴリズムを導入する。
実験の結果,ブラックボックスとホワイトボックスの両方の攻撃を受けた場合,高度な追跡手法に重大な脆弱性があることが判明した。
論文 参考訳(メタデータ) (2024-10-28T10:20:38Z) - Adversarial Robustness for Visual Grounding of Multimodal Large Language Models [49.71757071535619]
MLLM(Multi-modal Large Language Models)は近年,様々な視覚言語タスクのパフォーマンス向上を実現している。
MLLMでは、視覚的グラウンドリングの対角的堅牢性は未発見のままである。
本稿では,次の3つの攻撃パラダイムを提案する。
論文 参考訳(メタデータ) (2024-05-16T10:54:26Z) - STBA: Towards Evaluating the Robustness of DNNs for Query-Limited Black-box Scenario [50.37501379058119]
本研究では,クエリ制限シナリオにおいて,悪意のある逆の例を作成するために,空間変換ブラックボックス攻撃(STBA)を提案する。
そこで本研究では,STBAが対向例の認識不能性を効果的に改善し,クエリ制限条件下での攻撃成功率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-03-30T13:28:53Z) - Practical No-box Adversarial Attacks with Training-free Hybrid Image Transformation [94.30136898739448]
ノンボックス脅威モデルの下では, テキストbftraining-free adversarial perturbationの存在を示す。
低レベルの特徴を持つ高周波成分 (HFC) ドメインは, 主に周波数成分の操作によって画像を攻撃する。
我々の手法は、主流の転送ベースのブラックボックス攻撃と競合する。
論文 参考訳(メタデータ) (2022-03-09T09:51:00Z) - Learning Black-Box Attackers with Transferable Priors and Query Feedback [40.41083684665537]
本稿では,被害者モデルの分類信頼度のみを利用できるブラックボックス敵攻撃問題に対処する。
異なる視覚モデル間の視覚的サリエンシの整合性から着想を得たサロゲートモデルでは,移動性による攻撃性能の向上が期待されている。
シュロゲートモデルを用いた驚くほど単純なベースラインアプローチ(SimBA++)を提案する。
論文 参考訳(メタデータ) (2020-10-21T05:43:11Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。