論文の概要: Trust in LLM-controlled Robotics: a Survey of Security Threats, Defenses and Challenges
- arxiv url: http://arxiv.org/abs/2601.02377v1
- Date: Wed, 17 Dec 2025 02:07:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.640736
- Title: Trust in LLM-controlled Robotics: a Survey of Security Threats, Defenses and Challenges
- Title(参考訳): LLM制御ロボティクスの信頼 : セキュリティの脅威, 防衛, 課題調査
- Authors: Xinyu Huang, Shyam Karthick V B, Taozhao Chen, Mitch Bryson, Thomas Chaffey, Huaming Chen, Kim-Kwang Raymond Choo, Ian R. Manchester,
- Abstract要約: 大きな言語モデル(LLM)は、複雑なヒューマンコマンドを解釈し、洗練されたタスクを実行する能力に革命をもたらした。
このようなパラダイムシフトは、'embodiment gap'から生じる重大なセキュリティ脆弱性を導入します。
本稿では,LLM制御ロボティクスにおける脅威の出現状況とそれに対応する防衛戦略を要約した体系的な調査を行う。
- 参考スコア(独自算出の注目度): 31.289512037053246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of Large Language Models (LLMs) into robotics has revolutionized their ability to interpret complex human commands and execute sophisticated tasks. However, such paradigm shift introduces critical security vulnerabilities stemming from the ''embodiment gap'', a discord between the LLM's abstract reasoning and the physical, context-dependent nature of robotics. While security for text-based LLMs is an active area of research, existing solutions are often insufficient to address the unique threats for the embodied robotic agents, where malicious outputs manifest not merely as harmful text but as dangerous physical actions. In this work, we present a systematic survey, summarizing the emerging threat landscape and corresponding defense strategies for LLM-controlled robotics. Specifically, we discuss a comprehensive taxonomy of attack vectors, covering topics such as jailbreaking, backdoor attacks, and multi-modal prompt injection. In response, we analyze and categorize a range of defense mechanisms, from formal safety specifications and runtime enforcement to multi-LLM oversight and prompt hardening. Furthermore, we review key datasets and benchmarks used to evaluate the robustness of these embodied systems. By synthesizing current research, this work highlights the urgent need for context-aware security solutions and provides a foundational roadmap for the development of safe, secure, and reliable LLM-controlled robotics.
- Abstract(参考訳): ロボット工学へのLarge Language Models(LLM)の統合は、複雑なヒューマンコマンドを解釈し、洗練されたタスクを実行する能力に革命をもたらした。
しかしながら、このようなパラダイムシフトは、LLMの抽象的推論と、ロボット工学の物理的、文脈に依存した性質との相違である「身体的ギャップ」から生じる重要なセキュリティ脆弱性を導入する。
テキストベースのLSMのセキュリティは研究の活発な領域であるが、既存のソリューションは、悪意のある出力が有害なテキストとしてだけでなく、危険な物理的行動として現れる、エンボディされたロボットエージェントのユニークな脅威に対処するには不十分であることが多い。
本研究では,LLM制御ロボティクスにおける脅威の出現状況とそれに対応する防衛戦略を要約した体系的な調査を行う。
具体的には、ジェイルブレイク、バックドアアタック、マルチモーダルインジェクションなど、攻撃ベクトルの包括的分類について論じる。
その結果, 安全仕様の策定や実行時実施からマルチLLM監視, 即時強化に至るまで, 防衛機構の解析と分類を行った。
さらに,これらのエンボディドシステムのロバスト性を評価するために,鍵となるデータセットとベンチマークをレビューする。
この研究は、現在の研究を合成することによって、コンテキスト認識型セキュリティソリューションの緊急ニーズを強調し、安全でセキュアで信頼性の高いLLM制御ロボットの開発のための基本的なロードマップを提供する。
関連論文リスト
- LLM Scalability Risk for Agentic-AI and Model Supply Chain Security [1.1205855201611814]
大規模言語モデル(LLM)とジェネレーティブAIはサイバーセキュリティを変革し、高度な防衛と新たな攻撃の両方を可能にしている。
本稿では,GenAIによるサイバーセキュリティに対する攻撃的・防衛的視点を統合した統合分析を行う。
論文 参考訳(メタデータ) (2026-02-22T03:20:49Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [68.36528819227641]
本稿では,ビジョン・ランゲージ・アクション(VLA)モデルのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する2つの未目標攻撃目標と,ロボット軌道を操作する目標攻撃目標を導入する。
我々は、カメラの視野に小さなカラフルなパッチを配置し、デジタルと物理の両方の環境で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - Jailbreaking and Mitigation of Vulnerabilities in Large Language Models [8.345554966569479]
大規模言語モデル(LLM)は、自然言語の理解と生成を前進させることで、人工知能を変革した。
これらの進歩にもかかわらず、LSMは、特に注射と脱獄攻撃を急ぐために、かなりの脆弱性を示してきた。
このレビューでは、これらの脆弱性についての研究状況を分析し、利用可能な防衛戦略を提示する。
論文 参考訳(メタデータ) (2024-10-20T00:00:56Z) - A Study on Prompt Injection Attack Against LLM-Integrated Mobile Robotic Systems [4.71242457111104]
大規模言語モデル(LLM)はマルチモーダルプロンプトを処理でき、よりコンテキスト対応の応答を生成することができる。
主な懸念事項の1つは、ロボットナビゲーションタスクでLLMを使用する際の潜在的なセキュリティリスクである。
本研究は,LPM統合システムにおける即時注入が移動ロボットの性能に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2024-08-07T02:48:22Z) - On the Vulnerability of LLM/VLM-Controlled Robotics [54.57914943017522]
大規模言語モデル(LLM)と視覚言語モデル(VLM)を統合するロボットシステムの脆弱性を,入力モダリティの感度によって強調する。
LLM/VLM制御型2つのロボットシステムにおいて,単純な入力摂動がタスク実行の成功率を22.2%,14.6%減少させることを示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。