論文の概要: Universal Adversarial Perturbation Attacks On Modern Behavior Cloning Policies
- arxiv url: http://arxiv.org/abs/2502.03698v2
- Date: Sun, 05 Oct 2025 04:09:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 14:28:09.354891
- Title: Universal Adversarial Perturbation Attacks On Modern Behavior Cloning Policies
- Title(参考訳): 現代の行動クローン政策に対する普遍的敵対的摂動攻撃
- Authors: Akansha Kalra, Basavasagar Patil, Guanhong Tao, Daniel S. Brown,
- Abstract要約: Demonstration(LfD)アルゴリズムからの学習は、ロボット操作タスクにおいて有望な結果を示している。
しかし、オフラインの普遍的摂動攻撃に対する彼らの脆弱性は、まだ解明されていない。
本稿では,従来のアルゴリズムと最近提案されたアルゴリズムの両方に対する敵攻撃の包括的研究について述べる。
- 参考スコア(独自算出の注目度): 15.999261636389702
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from Demonstration (LfD) algorithms have shown promising results in robotic manipulation tasks, but their vulnerability to offline universal perturbation attacks remains underexplored. This paper presents a comprehensive study of adversarial attacks on both classic and recently proposed algorithms, including Behavior Cloning (BC), LSTM-GMM, Implicit Behavior Cloning (IBC), Diffusion Policy (DP), and Vector-Quantizied Behavior Transformer (VQ-BET). We study the vulnerability of these methods to universal adversarial perturbations. Our experiments on several simulated robotic manipulation tasks reveal that most of the current methods are highly vulnerable to adversarial perturbations. We also show that these attacks are often transferable across algorithms, architectures, and tasks, raising concerning security vulnerabilities to black-box attacks. To the best of our knowledge, we are the first to present a systematic study of the vulnerabilities of different LfD algorithms to both white-box and black-box attacks. Our findings highlight the vulnerabilities of modern BC algorithms, paving the way for future work in addressing such limitations.
- Abstract(参考訳): デモストレーション(LfD)アルゴリズムからの学習は、ロボット操作タスクにおいて有望な結果を示しているが、オフラインの普遍的摂動攻撃に対するその脆弱性はまだ探索されていない。
本稿では,従来のアルゴリズムと最近提案されたアルゴリズムの双方に対して,行動クローン (BC), LSTM-GMM, Implicit Behavior Cloning (IBC), Diffusion Policy (DP), Vector-Quantizied Behavior Transformer (VQ-BET) を包括的に検討する。
本研究は,これらの手法の普遍的逆境摂動に対する脆弱性について考察する。
いくつかのロボット操作のシミュレーション実験により、現在の手法のほとんどは敵の摂動に非常に弱いことが判明した。
また、これらの攻撃はアルゴリズム、アーキテクチャ、タスク間で転送可能であり、ブラックボックス攻撃に対するセキュリティ上の脆弱性を発生させることも示しています。
我々の知る限りでは、私たちはまず、異なるLfDアルゴリズムの脆弱性を、ホワイトボックスとブラックボックスの攻撃の両方に体系的に研究した。
我々の発見は、現代のBCアルゴリズムの脆弱性を浮き彫りにし、このような制限に対処する将来の仕事の道を開いた。
関連論文リスト
- Toward Spiking Neural Network Local Learning Modules Resistant to Adversarial Attacks [2.3312335998006306]
最近の研究では、敵対的な例としてスパイキングニューラルネットワーク(SNN)の脆弱性が示されている。
本稿では,敵インスタンスの転送可能性を活用するハイブリッド攻撃パラダイムを提案する。
提案手法は,既存の攻撃手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2025-04-11T18:07:59Z) - Robust Intrusion Detection System with Explainable Artificial Intelligence [0.0]
逆入力は、標準インターフェイスを通じて機械学習(ML)モデルを利用することができる。
敵の訓練のような従来の防御は、計算的な用語で費用がかかるため、しばしばリアルタイム検出の提供に失敗する。
eXplainable Artificial Intelligence (XAI) を用いた敵攻撃の検出と緩和のための新しい戦略を提案する。
論文 参考訳(メタデータ) (2025-03-07T10:31:59Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Deep PackGen: A Deep Reinforcement Learning Framework for Adversarial
Network Packet Generation [3.5574619538026044]
人工知能(AI)と機械学習(ML)アルゴリズムの最近の進歩は、サイバーセキュリティ運用センター(ディフェンダー)のセキュリティ姿勢を高めている。
近年の研究では、フローベースとパケットベースの特徴の摂動がMLモデルを欺くことが報告されているが、これらのアプローチには限界がある。
我々のフレームワークであるDeep PackGenは、逆パケットを生成するために深層強化学習を採用し、文献におけるアプローチの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2023-05-18T15:32:32Z) - Toward Evaluating Robustness of Reinforcement Learning with Adversarial Policy [32.1138935956272]
強化学習エージェントは、デプロイ中に回避攻撃を受けやすい。
本稿では,効率的なブラックボックス対応政策学習のための本質的なモチベーション付き適応政策(IMAP)を提案する。
論文 参考訳(メタデータ) (2023-05-04T07:24:12Z) - Adv-Bot: Realistic Adversarial Botnet Attacks against Network Intrusion
Detection Systems [0.7829352305480285]
最近、機械学習ベースのセキュリティシステムに対する攻撃の可能性について調査する研究者が増えている。
本研究では,ネットワークによる侵入検知システムに対する敵攻撃,特に回避攻撃の実現可能性について検討した。
私たちのゴールは、意図した悪意のある機能をすべて実行しながら、検出を回避できる敵ボットネットトラフィックを作ることです。
論文 参考訳(メタデータ) (2023-03-12T14:01:00Z) - Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification [0.0]
IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
論文 参考訳(メタデータ) (2023-01-30T18:00:28Z) - Resisting Deep Learning Models Against Adversarial Attack
Transferability via Feature Randomization [17.756085566366167]
本研究では,ディープラーニングモデルを対象とした8つの敵攻撃に抵抗する特徴ランダム化に基づく手法を提案する。
本手法は,標的ネットワークを確保でき,敵の攻撃伝達可能性に対して60%以上抵抗することができる。
論文 参考訳(メタデータ) (2022-09-11T20:14:12Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。