論文の概要: CS-GBA: A Critical Sample-based Gradient-guided Backdoor Attack for Offline Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2601.10407v1
- Date: Thu, 15 Jan 2026 13:57:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.153423
- Title: CS-GBA: A Critical Sample-based Gradient-guided Backdoor Attack for Offline Reinforcement Learning
- Title(参考訳): CS-GBA:オフライン強化学習のためのクリティカルサンプルベースグラディエント誘導バックドアアタック
- Authors: Yuanjie Zhao, Junnan Qiu, Yue Ding, Jie Li,
- Abstract要約: オフライン強化学習(RL)は、静的データセットからのポリシー最適化を可能にするが、バックドア攻撃に対して本質的に脆弱である。
我々は,厳格な予算の下で高い盗難と破壊性を達成すべく,CS-GBA(Critical Sample-based Gradient-Guided Backdoor Attack)を提案する。
- 参考スコア(独自算出の注目度): 7.5200963577855875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Offline Reinforcement Learning (RL) enables policy optimization from static datasets but is inherently vulnerable to backdoor attacks. Existing attack strategies typically struggle against safety-constrained algorithms (e.g., CQL) due to inefficient random poisoning and the use of easily detectable Out-of-Distribution (OOD) triggers. In this paper, we propose CS-GBA (Critical Sample-based Gradient-guided Backdoor Attack), a novel framework designed to achieve high stealthiness and destructiveness under a strict budget. Leveraging the theoretical insight that samples with high Temporal Difference (TD) errors are pivotal for value function convergence, we introduce an adaptive Critical Sample Selection strategy that concentrates the attack budget on the most influential transitions. To evade OOD detection, we propose a Correlation-Breaking Trigger mechanism that exploits the physical mutual exclusivity of state features (e.g., 95th percentile boundaries) to remain statistically concealed. Furthermore, we replace the conventional label inversion with a Gradient-Guided Action Generation mechanism, which searches for worst-case actions within the data manifold using the victim Q-network's gradient. Empirical results on D4RL benchmarks demonstrate that our method significantly outperforms state-of-the-art baselines, achieving high attack success rates against representative safety-constrained algorithms with a minimal 5% poisoning budget, while maintaining the agent's performance in clean environments.
- Abstract(参考訳): オフライン強化学習(RL)は、静的データセットからのポリシー最適化を可能にするが、バックドア攻撃に対して本質的に脆弱である。
既存の攻撃戦略は、非効率なランダムな毒殺と容易に検出可能なアウト・オブ・ディストリビューション(OOD)トリガーの使用により、安全性に制約のあるアルゴリズム(例えばCQL)と戦うのが一般的である。
本稿では,厳格な予算の下で高い盗難性と破壊性を達成すべく,CS-GBA(Critical Sample-based Gradient-Guided Backdoor Attack)を提案する。
高い時間差差(TD)誤差を持つサンプルが値関数収束の鍵となる理論的洞察を生かし、最も影響力のある遷移に攻撃予算を集中させる適応的臨界サンプル選択戦略を導入する。
OOD検出を回避するために,状態特徴(例えば95%境界)の物理的相互排他性を利用して統計的に隠蔽される相関ブラッキングトリガー機構を提案する。
さらに、従来のラベルインバージョンを、被害者Q-ネットワークの勾配を用いてデータ多様体内の最悪のアクションを探索するグラディエントガイドアクション生成機構に置き換える。
D4RLベンチマークの実証的な結果から,提案手法は最先端のベースラインを著しく上回り,クリーン環境下でのエージェントの性能を維持しつつ,5%の有害予算を有する代表的安全制約アルゴリズムに対する高い攻撃成功率を達成することが示された。
関連論文リスト
- The Eminence in Shadow: Exploiting Feature Boundary Ambiguity for Robust Backdoor Attacks [51.468144272905135]
深層ニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱なままでも重要なアプリケーションを支える。
バックドア攻撃を標的とした理論的解析を行い,不均質なモデル操作を実現するための疎い決定境界に着目した。
エミネンス(Eminence)は、理論的な保証と固有なステルス特性を持つ、説明可能で堅牢なブラックボックスバックドアフレームワークである。
論文 参考訳(メタデータ) (2025-12-11T08:09:07Z) - Optimal Perturbation Budget Allocation for Data Poisoning in Offline Reinforcement Learning [3.548727497699329]
オフライン強化学習(RL)は、静的データセットからのポリシー最適化を可能にするが、本質的にデータ中毒攻撃に対して脆弱である。
既存の攻撃戦略は通常、全てのサンプルを無差別に扱う局所的な均一な摂動に依存している。
このアプローチは、低インパクトサンプルの摂動予算を無駄にし、統計的に大きな違いがあるため、ステルス性を欠いているため、非効率である。
論文 参考訳(メタデータ) (2025-12-09T11:04:37Z) - Backdoor Attacks against No-Reference Image Quality Assessment Models via a Scalable Trigger [76.36315347198195]
No-Reference Image Quality Assessment (NR-IQA) はコンピュータビジョンシステムの評価と最適化において重要な役割を果たしている。
近年の研究では、NR-IQAモデルが敵攻撃の影響を受けやすいことが示されている。
NR-IQA(BAIQA)に対する新規中毒性バックドアアタックを報告した。
論文 参考訳(メタデータ) (2024-12-10T08:07:19Z) - BadGD: A unified data-centric framework to identify gradient descent vulnerabilities [10.996626204702189]
BadGDは、敵の操作を理解し緩和するための新しい標準を設定している。
この研究は、このようなデータ中心の攻撃によって引き起こされる深刻な脅威を強調し、機械学習における堅牢な防御の必要性を強調している。
論文 参考訳(メタデータ) (2024-05-24T23:39:45Z) - IBD-PSC: Input-level Backdoor Detection via Parameter-oriented Scaling Consistency [20.61046457594186]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
本稿では、悪意のあるテスト画像のフィルタリングを行うための、シンプルで効果的な入力レベルのバックドア検出(IBD-PSCと呼ばれる)を提案する。
論文 参考訳(メタデータ) (2024-05-16T03:19:52Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。