論文の概要: TrojanRobot: Backdoor Attacks Against Robotic Manipulation in the Physical World
- arxiv url: http://arxiv.org/abs/2411.11683v1
- Date: Mon, 18 Nov 2024 16:09:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:28:07.907166
- Title: TrojanRobot: Backdoor Attacks Against Robotic Manipulation in the Physical World
- Title(参考訳): TrojanRobot:物理世界でのロボット操作に対するバックドア攻撃
- Authors: Xianlong Wang, Hewen Pan, Hangtao Zhang, Minghui Li, Shengshan Hu, Ziqi Zhou, Lulu Xue, Peijin Guo, Yichen Wang, Wei Wan, Aishan Liu, Leo Yu Zhang,
- Abstract要約: 本稿では,ロボット操作に特化したバックドアアタックを提案し,物理世界で初めてバックドアアタックを実装した。
バックドア視覚言語モデルをロボットシステム内の視覚知覚モジュールに組み込むことで,ロボットアームの動作を物理的に誤解させることに成功した。
- 参考スコア(独自算出の注目度): 22.313765935846046
- License:
- Abstract: Robotic manipulation refers to the autonomous handling and interaction of robots with objects using advanced techniques in robotics and artificial intelligence. The advent of powerful tools such as large language models (LLMs) and large vision-language models (LVLMs) has significantly enhanced the capabilities of these robots in environmental perception and decision-making. However, the introduction of these intelligent agents has led to security threats such as jailbreak attacks and adversarial attacks. In this research, we take a further step by proposing a backdoor attack specifically targeting robotic manipulation and, for the first time, implementing backdoor attack in the physical world. By embedding a backdoor visual language model into the visual perception module within the robotic system, we successfully mislead the robotic arm's operation in the physical world, given the presence of common items as triggers. Experimental evaluations in the physical world demonstrate the effectiveness of the proposed backdoor attack.
- Abstract(参考訳): ロボット操作とは、ロボット工学と人工知能の高度な技術を用いて、ロボットと物体との自律的なハンドリングと相互作用をいう。
大規模言語モデル(LLM)や大規模視覚言語モデル(LVLM)といった強力なツールの出現は、環境認識や意思決定におけるこれらのロボットの能力を大幅に向上させた。
しかし、これらの知的エージェントの導入は、ジェイルブレイク攻撃や敵攻撃のようなセキュリティ上の脅威につながった。
本研究では、ロボット操作に特化したバックドアアタックを提案し、物理世界で初めてバックドアアタックを実装した。
バックドアの視覚言語モデルをロボットシステム内の視覚知覚モジュールに組み込むことで、一般的なアイテムがトリガーとして存在することを考えると、ロボットアームの動作を物理的世界に誤解させることに成功した。
物理世界での実験的な評価は、提案されたバックドア攻撃の有効性を示す。
関連論文リスト
- $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - Jailbreaking LLM-Controlled Robots [82.04590367171932]
大規模言語モデル(LLM)は、文脈推論と直感的な人間とロボットの相互作用を可能にすることによって、ロボット工学の分野に革命をもたらした。
LLMは脱獄攻撃に弱いため、悪意のあるプロンプトはLLMの安全ガードレールをバイパスすることで有害なテキストを誘発する。
LLM制御ロボットをジェイルブレイクするアルゴリズムであるRoboPAIRを紹介する。
論文 参考訳(メタデータ) (2024-10-17T15:55:36Z) - Unifying 3D Representation and Control of Diverse Robots with a Single Camera [48.279199537720714]
我々は,ロボットを視覚のみからモデル化し,制御することを自律的に学習するアーキテクチャであるNeural Jacobian Fieldsを紹介する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - WALL-E: Embodied Robotic WAiter Load Lifting with Large Language Model [92.90127398282209]
本稿では,最新のLarge Language Models(LLM)と既存のビジュアルグラウンドとロボットグルーピングシステムを統合する可能性について検討する。
本稿では,この統合の例としてWALL-E (Embodied Robotic WAiter load lifting with Large Language model)を紹介する。
我々は,このLCMを利用したシステムを物理ロボットに展開し,よりユーザフレンドリなインタフェースで指導誘導型把握タスクを実現する。
論文 参考訳(メタデータ) (2023-08-30T11:35:21Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Open-World Object Manipulation using Pre-trained Vision-Language Models [72.87306011500084]
ロボットが人からの指示に従うためには、人間の語彙の豊かな意味情報を繋げなければならない。
我々は、事前学習された視覚言語モデルを利用して、オブジェクト識別情報を抽出するシンプルなアプローチを開発する。
実際の移動マニピュレータにおける様々な実験において、MOOはゼロショットを様々な新しいオブジェクトカテゴリや環境に一般化する。
論文 参考訳(メタデータ) (2023-03-02T01:55:10Z) - RoboMal: Malware Detection for Robot Network Systems [4.357338639836869]
本稿では,バイナリ実行ファイル上で静的なマルウェア検出を行うRoboMalフレームワークを提案する。
このフレームワークは、GRU、CNN、ANNといった広く使われている教師付き学習モデルと比較される。
特に、LSTMベースのRoboMalモデルは、10倍のクロスバリデーションで85%の精度と87%の精度で他のモデルより優れている。
論文 参考訳(メタデータ) (2022-01-20T22:11:38Z) - Fault-Aware Robust Control via Adversarial Reinforcement Learning [35.16413579212691]
本稿では, 関節損傷症例に対するロボットの脆弱性を大幅に向上させる, 対向強化学習フレームワークを提案する。
我々は,本アルゴリズムを3本指ロボットと4本指ロボットで検証する。
我々のアルゴリズムはシミュレーションでのみ訓練でき、微調整なしで実際のロボットに直接展開できる。
論文 参考訳(メタデータ) (2020-11-17T16:01:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。