論文の概要: Cybersecurity AI: Hacking Consumer Robots in the AI Era
- arxiv url: http://arxiv.org/abs/2603.08665v2
- Date: Tue, 10 Mar 2026 20:35:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 14:12:44.165174
- Title: Cybersecurity AI: Hacking Consumer Robots in the AI Era
- Title(参考訳): サイバーセキュリティAI:AI時代における消費者ロボットのハッキング
- Authors: Víctor Mayoral-Vilches, Unai Ayucar-Carbajo, Olivier Laflamme, Ruikai Peng, María Sanz-Gómez, Francesco Balassone, Lucas Apa, Endika Gil-Uriarte,
- Abstract要約: 本稿では,ジェネレーティブAIがロボットサイバーセキュリティを根本的に破壊した証拠を提示する。
攻撃能力はAIによって民主化されてきたが、防御策は遅れていることが多い。
- 参考スコア(独自算出の注目度): 0.32987873049918764
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Is robot cybersecurity broken by AI? Consumer robots -- from autonomous lawnmowers to powered exoskeletons and window cleaners -- are rapidly entering homes and workplaces, yet their security remains rooted in assumptions of specialized attacker expertise. This paper presents evidence that Generative AI has fundamentally disrupted robot cybersecurity: what historically required deep knowledge of ROS, ROS 2, and robotic system internals can now be automated by anyone with access to state-of-the-art GenAI tools spearheaded by the open source CAI (Cybersecurity AI). We provide empirical evidence through three case studies: (1) compromising a Hookii autonomous lawnmower robot, uncovering fleet-wide vulnerabilities and data protection violations affecting 267+ connected devices, (2) exploiting a Hypershell powered exoskeleton, demonstrating safety-critical motor control weaknesses and credential exposure including access to over 3,300 internal support emails, and (3) breaching a HOBOT S7 Pro window cleaning robot, achieving unauthenticated BLE command injection and OTA firmware exploitation. Across these platforms, CAI discovered in an automated manner 38 vulnerabilities that would have previously required months of specialized security research. Our findings reveal a stark asymmetry: while offensive capabilities have been democratized through AI, defensive measures often remain lagging behind. We argue that traditional defense-in-depth architectures like the Robot Immune System (RIS) must evolve toward GenAI-native defensive agents capable of matching the speed and adaptability of AI-powered attacks.
- Abstract(参考訳): ロボットのサイバーセキュリティはAIによって破られるのか?
自動芝刈り機から、エキソスケトンや窓掃除機まで、消費者ロボットは急速に家や職場に入ってきているが、彼らのセキュリティは、特別な攻撃者の専門知識の仮定に根ざしている。
本稿では、ジェネレーティブAIがロボットサイバーセキュリティを根本的に破壊した証拠を提示する。歴史的にROS、ROS 2、ロボットシステム内部の深い知識を必要とするものは、オープンソースのCAI(Cybersecurity AI)によって先導された最先端のGenAIツールにアクセス可能な人なら誰でも自動化することができる。
267以上の接続デバイスに影響を及ぼす車両全体の脆弱性とデータ保護違反を明らかにすること、ハイパーシェル駆動のエクソスケルトンを悪用すること、3,300以上の内部サポートメールへのアクセスを含む安全クリティカルなモータ制御の弱点とクレデンシャルな露出を実証すること、そして、HOBOT S7 Proウィンドウクリーニングロボットを侵害すること、未認証のBLEコマンドインジェクションとOTAファームウェアを悪用すること、の3つのケーススタディを通じて実証的な証拠を提供する。
これらのプラットフォーム全体で、CAIは、これまで特別なセキュリティ調査を何ヶ月も必要としていた、38の脆弱性を自動で検出した。
攻撃能力はAIによって民主化されてきたが、防御策は遅れていることが多い。
我々は、ロボット免疫システム(RIS)のような伝統的な防衛のアーキテクチャは、AIによる攻撃の速度と適応性にマッチできるGenAIネイティブな防御エージェントに向けて進化する必要があると論じる。
関連論文リスト
- Cybersecurity AI: Humanoid Robots as Attack Vectors [0.448741371377488]
本報告では,Unitree G1ヒューマノイドのセキュリティ評価について述べる。
同時に秘密監視ノードとして機能し、アクティブなサイバー運用プラットフォームとして利用することができる。
論文 参考訳(メタデータ) (2025-09-17T16:18:53Z) - ANNIE: Be Careful of Your Robots [48.89876809734855]
エンボディドAIシステムに対する敵の安全攻撃に関する最初の体系的研究について述べる。
すべての安全カテゴリーで攻撃の成功率は50%を超えている。
結果は、実証済みのAIシステムにおいて、これまで未調査だったが、非常に連続的な攻撃面を露呈する。
論文 参考訳(メタデータ) (2025-09-03T15:00:28Z) - A roadmap for AI in robotics [55.87087746398059]
AIの可能性を生かして、私たちの日常生活にロボットを配備する上での、際立った障壁に取り組みたいと考えています。
この記事では、1990年代からロボット工学におけるAIが達成したことを評価し、課題と約束を列挙した短期的・中期的な研究ロードマップを提案する。
論文 参考訳(メタデータ) (2025-07-26T15:18:28Z) - Offensive Robot Cybersecurity [0.0]
この論文は、ロボットアーキテクチャとサイバーセキュリティの深い関係を明らかにしている。
防衛と攻撃の両面からサイバーセキュリティにアプローチすることが重要である。
この論文は、サイバーセキュリティ認知エンジンのための新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-06-18T10:49:40Z) - Is Generative AI the Next Tactical Cyber Weapon For Threat Actors? Unforeseen Implications of AI Generated Cyber Attacks [0.0]
本稿では,AIの誤用によるエスカレート脅威,特にLarge Language Models(LLMs)の使用について述べる。
一連の制御された実験を通じて、これらのモデルがどのようにして倫理的およびプライバシー保護を回避し、効果的にサイバー攻撃を発生させるかを実証する。
私たちはまた、サイバー攻撃の自動化と実行のために特別に設計されたカスタマイズされた微調整のLLMであるOccupy AIを紹介します。
論文 参考訳(メタデータ) (2024-08-23T02:56:13Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。