論文の概要: TrojanRobot: Backdoor Attacks Against Robotic Manipulation in the Physical World
- arxiv url: http://arxiv.org/abs/2411.11683v1
- Date: Mon, 18 Nov 2024 16:09:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:28:07.907166
- Title: TrojanRobot: Backdoor Attacks Against Robotic Manipulation in the Physical World
- Title(参考訳): TrojanRobot:物理世界でのロボット操作に対するバックドア攻撃
- Authors: Xianlong Wang, Hewen Pan, Hangtao Zhang, Minghui Li, Shengshan Hu, Ziqi Zhou, Lulu Xue, Peijin Guo, Yichen Wang, Wei Wan, Aishan Liu, Leo Yu Zhang,
- Abstract要約: 本稿では,ロボット操作に特化したバックドアアタックを提案し,物理世界で初めてバックドアアタックを実装した。
バックドア視覚言語モデルをロボットシステム内の視覚知覚モジュールに組み込むことで,ロボットアームの動作を物理的に誤解させることに成功した。
- 参考スコア(独自算出の注目度): 22.313765935846046
- License:
- Abstract: Robotic manipulation refers to the autonomous handling and interaction of robots with objects using advanced techniques in robotics and artificial intelligence. The advent of powerful tools such as large language models (LLMs) and large vision-language models (LVLMs) has significantly enhanced the capabilities of these robots in environmental perception and decision-making. However, the introduction of these intelligent agents has led to security threats such as jailbreak attacks and adversarial attacks. In this research, we take a further step by proposing a backdoor attack specifically targeting robotic manipulation and, for the first time, implementing backdoor attack in the physical world. By embedding a backdoor visual language model into the visual perception module within the robotic system, we successfully mislead the robotic arm's operation in the physical world, given the presence of common items as triggers. Experimental evaluations in the physical world demonstrate the effectiveness of the proposed backdoor attack.
- Abstract(参考訳): ロボット操作とは、ロボット工学と人工知能の高度な技術を用いて、ロボットと物体との自律的なハンドリングと相互作用をいう。
大規模言語モデル(LLM)や大規模視覚言語モデル(LVLM)といった強力なツールの出現は、環境認識や意思決定におけるこれらのロボットの能力を大幅に向上させた。
しかし、これらの知的エージェントの導入は、ジェイルブレイク攻撃や敵攻撃のようなセキュリティ上の脅威につながった。
本研究では、ロボット操作に特化したバックドアアタックを提案し、物理世界で初めてバックドアアタックを実装した。
バックドアの視覚言語モデルをロボットシステム内の視覚知覚モジュールに組み込むことで、一般的なアイテムがトリガーとして存在することを考えると、ロボットアームの動作を物理的世界に誤解させることに成功した。
物理世界での実験的な評価は、提案されたバックドア攻撃の有効性を示す。
関連論文リスト
- Jailbreaking LLM-Controlled Robots [82.04590367171932]
大規模言語モデル(LLM)は、文脈推論と直感的な人間とロボットの相互作用を可能にすることによって、ロボット工学の分野に革命をもたらした。
LLMは脱獄攻撃に弱いため、悪意のあるプロンプトはLLMの安全ガードレールをバイパスすることで有害なテキストを誘発する。
LLM制御ロボットをジェイルブレイクするアルゴリズムであるRoboPAIRを紹介する。
論文 参考訳(メタデータ) (2024-10-17T15:55:36Z) - BackdoorLLM: A Comprehensive Benchmark for Backdoor Attacks on Large Language Models [27.59116619946915]
textitBackdoorLLMは、生成型大規模言語モデルに対するバックドア攻撃を研究するための、最初の包括的なベンチマークである。
textitBackdoorLLMの機能: 1) 標準化されたトレーニングパイプラインを備えたバックドアベンチマークのレポジトリ、2) データ中毒、重毒、隠れ状態攻撃、およびチェーンオブ思想攻撃を含む多様な攻撃戦略、3) 7つのシナリオと6つのモデルアーキテクチャにわたる8つの攻撃に関する200以上の実験による広範な評価。
論文 参考訳(メタデータ) (2024-08-23T02:21:21Z) - TrojFM: Resource-efficient Backdoor Attacks against Very Large Foundation Models [69.37990698561299]
TrojFMは、非常に大きな基礎モデルに適した、新しいバックドア攻撃である。
提案手法では,モデルパラメータのごく一部のみを微調整することでバックドアを注入する。
広範に使われている大規模GPTモデルに対して,TrojFMが効果的なバックドアアタックを起動できることを実証する。
論文 参考訳(メタデータ) (2024-05-27T03:10:57Z) - Robust Backdoor Attacks on Object Detection in Real World [8.910615149604201]
攻撃対象の異なるサイズに対応するために,可変サイズバックドアトリガを提案する。
さらに,悪質な対人訓練というバックドアトレーニングを提案し,バックドア物体検出装置が物理的ノイズでトリガの特徴を学習できるようにした。
論文 参考訳(メタデータ) (2023-09-16T11:09:08Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Evil from Within: Machine Learning Backdoors through Hardware Trojans [51.81518799463544]
バックドアは、自動運転車のようなセキュリティクリティカルなシステムの整合性を損なう可能性があるため、機械学習に深刻な脅威をもたらす。
私たちは、機械学習のための一般的なハードウェアアクセラレーターに完全に存在するバックドアアタックを導入します。
我々は,Xilinx Vitis AI DPUにハードウェアトロイの木馬を埋め込むことにより,攻撃の実現可能性を示す。
論文 参考訳(メタデータ) (2023-04-17T16:24:48Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Neurotoxin: Durable Backdoors in Federated Learning [73.82725064553827]
連合学習システムは バックドア攻撃の訓練中に 固有の脆弱性がある
我々は,既存のバックドア攻撃に対する単純な一直線修正であるニューロトキシンを提案する。
論文 参考訳(メタデータ) (2022-06-12T16:52:52Z) - Kallima: A Clean-label Framework for Textual Backdoor Attacks [25.332731545200808]
マイメシススタイルのバックドアサンプルを合成するための,最初のクリーンラベルフレームワークKallimaを提案する。
我々は,対象クラスに属する入力を逆方向の摂動で修正し,モデルがバックドアトリガに依存するようにした。
論文 参考訳(メタデータ) (2022-06-03T21:44:43Z) - BAAAN: Backdoor Attacks Against Autoencoder and GAN-Based Machine
Learning Models [21.06679566096713]
我々は、マシンラーニングモデル、すなわちバックドア攻撃に対する最も深刻な攻撃の1つを、オートエンコーダとGANの両方に対して探索する。
バックドアアタック(英語: backdoor attack)とは、敵が秘密のトリガーによってのみ起動できるターゲットモデルに隠れたバックドアを実装する訓練時間アタックである。
バックドア攻撃の適用性をオートエンコーダやGANベースのモデルに拡張する。
論文 参考訳(メタデータ) (2020-10-06T20:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。