論文の概要: SoK: Cybersecurity Assessment of Humanoid Ecosystem
- arxiv url: http://arxiv.org/abs/2508.17481v2
- Date: Mon, 01 Sep 2025 16:04:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-03 14:24:52.686379
- Title: SoK: Cybersecurity Assessment of Humanoid Ecosystem
- Title(参考訳): SoK:ヒューマノイド生態系のサイバーセキュリティ評価
- Authors: Priyanka Prakash Surve, Asaf Shabtai, Yuval Elovici,
- Abstract要約: 我々はヒューマノイドロボットの7層セキュリティモデルを導入し、39の既知の攻撃と35の防衛をヒューマノイドエコシステム全体で編成した。
提案手法は,Pepper,G1 EDU,Digitの3つの実世界のロボットを評価することで実証する。
- 参考スコア(独自算出の注目度): 25.852577434268273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humanoids are progressing toward practical deployment across healthcare, industrial, defense, and service sectors. While typically considered cyber-physical systems (CPSs), their dependence on traditional networked software stacks (e.g., Linux operating systems), robot operating system (ROS) middleware, and over-the-air update channels, creates a distinct security profile that exposes them to vulnerabilities conventional CPS models do not fully address. Prior studies have mainly examined specific threats, such as LiDAR spoofing or adversarial machine learning (AML). This narrow focus overlooks how an attack targeting one component can cascade harm throughout the robot's interconnected systems. We address this gap through a systematization of knowledge (SoK) that takes a comprehensive approach, consolidating fragmented research from robotics, CPS, and network security domains. We introduce a seven-layer security model for humanoid robots, organizing 39 known attacks and 35 defenses across the humanoid ecosystem-from hardware to human-robot interaction. Building on this security model, we develop a quantitative 39x35 attack-defense matrix with risk-weighted scoring, validated through Monte Carlo analysis. We demonstrate our method by evaluating three real-world robots: Pepper, G1 EDU, and Digit. The scoring analysis revealed varying security maturity levels, with scores ranging from 39.9% to 79.5% across the platforms. This work introduces a structured, evidence-based assessment method that enables systematic security evaluation, supports cross-platform benchmarking, and guides prioritization of security investments in humanoid robotics.
- Abstract(参考訳): ヒューマノイドは医療、産業、防衛、サービス分野にまたがる実践的な展開に向かって進んでいる。
一般的にサイバー物理システム(CPS)と見なされるが、従来のネットワーク化されたソフトウェアスタック(例えばLinuxオペレーティングシステム)、ロボットオペレーティングシステム(ROS)ミドルウェア、およびオーバー・ザ・エアの更新チャネルに依存しているため、従来のCPSモデルでは十分に対応していない。
従来の研究では、LiDARのスプーフィングや敵対的機械学習(AML)など、特定の脅威を主に研究してきた。
この狭い焦点は、ひとつのコンポーネントをターゲットにしたアタックが、ロボットの相互接続システム全体にわたって害を発生させる方法を見落としている。
我々は、ロボット工学、CPS、ネットワークセキュリティドメインからの断片的な研究を統合し、包括的なアプローチをとる知識の体系化(SoK)を通じて、このギャップに対処する。
我々は,ヒューマノイドロボットの7層セキュリティモデルを導入し,ハードウェアから人間ロボットのインタラクションに至るまで,39の既知の攻撃と35の防衛を組織した。
このセキュリティモデルに基づいて,モンテカルロ分析により評価されたリスク重み付きスコア付き39x35の攻撃防御マトリックスを開発した。
提案手法は,Pepper,G1 EDU,Digitの3つの実世界のロボットを評価することで実証する。
スコア分析の結果、セキュリティの成熟度は39.9%から79.5%まで様々であった。
本研究は,体系的なセキュリティ評価,クロスプラットフォームベンチマークのサポート,ヒューマノイドロボットにおけるセキュリティ投資の優先順位付けを支援する,構造化されたエビデンスに基づく評価手法を導入する。
関連論文リスト
- Offensive Robot Cybersecurity [0.0]
この論文は、ロボットアーキテクチャとサイバーセキュリティの深い関係を明らかにしている。
防衛と攻撃の両面からサイバーセキュリティにアプローチすることが重要である。
この論文は、サイバーセキュリティ認知エンジンのための新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-06-18T10:49:40Z) - Implementing a Robot Intrusion Prevention System (RIPS) for ROS 2 [0.4613900711472571]
RIPSは,ROS 2.0に基づくロボットアプリケーションに適した侵入防止システムである。
この原稿は、問題を包括的に説明し、ROS2アプリケーションのセキュリティ面と、ロボット環境のために開発した脅威モデルの重要なポイントを提供します。
論文 参考訳(メタデータ) (2024-12-26T16:25:34Z) - On the Cyber-Physical Security of Commercial Indoor Delivery Robot Systems [20.204068275090243]
屋内配達ロボット(IDR)は、今後第4次産業革命において重要な役割を担い、屋内環境内のアイテムを自律的にナビゲートし輸送する。
本研究は,サイバーおよび物理層攻撃面と,セキュリティ,安全性,プライバシを越えたドメイン固有の攻撃目標の両方を考慮して,IDRシステムの最初のセキュリティ解析を行うことを目的とする。
論文 参考訳(メタデータ) (2024-12-14T06:12:10Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [68.36528819227641]
本稿では,ビジョン・ランゲージ・アクション(VLA)モデルのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する2つの未目標攻撃目標と,ロボット軌道を操作する目標攻撃目標を導入する。
我々は、カメラの視野に小さなカラフルなパッチを配置し、デジタルと物理の両方の環境で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - Can We Trust Embodied Agents? Exploring Backdoor Attacks against Embodied LLM-based Decision-Making Systems [27.316115171846953]
大規模言語モデル(LLM)は、実世界のAI意思決定タスクにおいて大きな可能性を示している。
LLMは、固有の常識と推論能力を活用するために微調整され、特定の用途に適合する。
この微調整プロセスは、特に安全クリティカルなサイバー物理システムにおいて、かなりの安全性とセキュリティの脆弱性をもたらす。
論文 参考訳(メタデータ) (2024-05-27T17:59:43Z) - On the Vulnerability of LLM/VLM-Controlled Robotics [54.57914943017522]
大規模言語モデル(LLM)と視覚言語モデル(VLM)を統合するロボットシステムの脆弱性を,入力モダリティの感度によって強調する。
LLM/VLM制御型2つのロボットシステムにおいて,単純な入力摂動がタスク実行の成功率を22.2%,14.6%減少させることを示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。