論文の概要: Diffusion-Guided Backdoor Attacks in Real-World Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2601.14104v1
- Date: Tue, 20 Jan 2026 16:03:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.401037
- Title: Diffusion-Guided Backdoor Attacks in Real-World Reinforcement Learning
- Title(参考訳): 実世界強化学習における拡散誘導型バックドアアタック
- Authors: Tairan Huang, Qingqing Ye, Yulin Jin, Jiawei Lian, Yi Wang, Haibo Hu,
- Abstract要約: バックドア攻撃は、強化学習ポリシーに隠された悪意のある振る舞いを埋め込み、テスト時にトリガーを使用してそれらをアクティベートする。
既存の攻撃のほとんどはシミュレーションでのみ検証されているが、実際のロボットシステムでの有効性はまだ不明である。
これまでに見過ごされてきた問題を考察し,現実世界のRLに対する拡散誘導型バックドアアタックフレームワーク(DGBA)を提案する。
- 参考スコア(独自算出の注目度): 13.244940433694024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attacks embed hidden malicious behaviors in reinforcement learning (RL) policies and activate them using triggers at test time. Most existing attacks are validated only in simulation, while their effectiveness in real-world robotic systems remains unclear. In physical deployment, safety-constrained control pipelines such as velocity limiting, action smoothing, and collision avoidance suppress abnormal actions, causing strong attenuation of conventional backdoor attacks. We study this previously overlooked problem and propose a diffusion-guided backdoor attack framework (DGBA) for real-world RL. We design small printable visual patch triggers placed on the floor and generate them using a conditional diffusion model that produces diverse patch appearances under real-world visual variations. We treat the robot control stack as a black-box system. We further introduce an advantage-based poisoning strategy that injects triggers only at decision-critical training states. We evaluate our method on a TurtleBot3 mobile robot and demonstrate reliable activation of targeted attacks while preserving normal task performance. Demo videos and code are available in the supplementary material.
- Abstract(参考訳): バックドア攻撃は、強化学習(RL)ポリシーに隠された悪意のある振る舞いを埋め込み、テスト時にトリガーを使用してそれらをアクティベートする。
既存の攻撃のほとんどはシミュレーションでのみ検証されているが、実際のロボットシステムでの有効性はまだ不明である。
物理的な配置では、速度制限、動作の平滑化、衝突回避といった安全に制約された制御パイプラインが異常な動作を抑え、従来のバックドア攻撃の強い減衰を引き起こした。
これまでに見過ごされてきた問題を考察し,現実世界のRLに対する拡散誘導型バックドアアタックフレームワーク(DGBA)を提案する。
床上に設置した小さなプリント可能な視覚パッチトリガを設計し,実世界の視覚変化の下で様々なパッチの出現を生成する条件付き拡散モデルを用いて生成する。
ロボット制御スタックをブラックボックスシステムとして扱う。
さらに、決定クリティカルな訓練状態にのみトリガーを注入するアドバンテージベースの中毒対策を導入する。
本手法をTurtleBot3移動ロボット上で評価し,通常のタスク性能を保ちながら標的攻撃の確実な活性化を実証する。
デモビデオとコードは補足資料で入手できる。
関連論文リスト
- Poison Once, Control Anywhere: Clean-Text Visual Backdoors in VLM-based Mobile Agents [54.35629963816521]
この研究は、VLMベースのモバイルエージェントをターゲットにした最初のクリーンテキストバックドアアタックであるVIBMAを紹介する。
この攻撃は、視覚的な入力だけを変更することによって、悪意ある振る舞いをモデルに注入する。
クリーンタスクの動作を保ちながら高い成功率を達成できることを示す。
論文 参考訳(メタデータ) (2025-06-16T08:09:32Z) - C^2 ATTACK: Towards Representation Backdoor on CLIP via Concept Confusion [8.681880476320085]
我々は、新しいバックドア攻撃フレームワーク、コンセプト・コンフュージョン・アタック(C2 ATTACK)を開発した。
実際のトリガーの使用を回避し、潜伏空間における特定の概念を直接活性化または非活性化させることにより、我々のアプローチはステルスを高め、既存の防御による検出を著しく困難にする。
論文 参考訳(メタデータ) (2025-03-12T06:17:12Z) - Unlearn to Relearn Backdoors: Deferred Backdoor Functionality Attacks on Deep Learning Models [6.937795040660591]
バックドア攻撃の新たなパラダイムとして,Deferred Activated Backdoor Functionality (DABF)を紹介した。
従来の攻撃とは異なり、DABFは当初バックドアを隠蔽し、起動しても良質な出力を生成する。
DABF攻撃は、マシンラーニングモデルのライフサイクルで一般的なプラクティスを利用して、モデル更新と初期デプロイ後の微調整を実行する。
論文 参考訳(メタデータ) (2024-11-10T07:01:53Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。