論文の概要: A New Paradigm of Threats in Robotics Behaviors
- arxiv url: http://arxiv.org/abs/2103.13268v1
- Date: Wed, 24 Mar 2021 15:33:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 13:52:25.006167
- Title: A New Paradigm of Threats in Robotics Behaviors
- Title(参考訳): ロボット行動における脅威の新たなパラダイム
- Authors: Michele Colledanchise
- Abstract要約: 我々は、次世代ロボットにおけるセキュリティの脅威の新しいパラダイムを特定する。
これらの脅威は、既知のハードウェアやネットワークベースの脅威を超えます。
これらの脆弱性を現実的な例で悪用する攻撃の分類を提供する。
- 参考スコア(独自算出の注目度): 4.873362301533825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robots applications in our daily life increase at an unprecedented pace. As
robots will soon operate "out in the wild", we must identify the safety and
security vulnerabilities they will face. Robotics researchers and manufacturers
focus their attention on new, cheaper, and more reliable applications. Still,
they often disregard the operability in adversarial environments where a
trusted or untrusted user can jeopardize or even alter the robot's task.
In this paper, we identify a new paradigm of security threats in the next
generation of robots. These threats fall beyond the known hardware or
network-based ones, and we must find new solutions to address them. These new
threats include malicious use of the robot's privileged access, tampering with
the robot sensors system, and tricking the robot's deliberation into harmful
behaviors. We provide a taxonomy of attacks that exploit these vulnerabilities
with realistic examples, and we outline effective countermeasures to prevent
better, detect, and mitigate them.
- Abstract(参考訳): ロボットの日常利用は前例のないペースで増加している。
ロボットがすぐに“野放し”するので、私たちは彼らが直面する安全とセキュリティの脆弱性を特定する必要があります。
ロボット研究者やメーカーは、新しく、安く、より信頼性の高いアプリケーションに焦点を当てている。
それでも、信頼できないユーザーや信頼できないユーザーがロボットのタスクを危険に晒したり、変更したりできる敵の環境での操作性を無視することが多い。
本稿では,次世代ロボットにおけるセキュリティ脅威の新しいパラダイムを明らかにする。
これらの脅威は、既知のハードウェアやネットワークベースのものを超えており、対処する新たなソリューションを見つけなければなりません。
これらの新たな脅威には、ロボットの特権アクセスの悪意のある利用、ロボットセンサーシステムへの改ざん、ロボットの意図を有害な行動に騙すことが含まれる。
我々は,これらの脆弱性を現実的な例で活用する攻撃の分類法を提供し,より良く,検出し,軽減するための効果的な対策を概説する。
関連論文リスト
- TrojanRobot: Backdoor Attacks Against Robotic Manipulation in the Physical World [22.313765935846046]
本稿では,ロボット操作に特化したバックドアアタックを提案し,物理世界で初めてバックドアアタックを実装した。
バックドア視覚言語モデルをロボットシステム内の視覚知覚モジュールに組み込むことで,ロボットアームの動作を物理的に誤解させることに成功した。
論文 参考訳(メタデータ) (2024-11-18T16:09:26Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [70.93622520400385]
本稿では,VLAに基づくロボットシステムのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する,標的のない位置認識型攻撃目標を提案する。
また、カメラの視野内に小さなカラフルなパッチを配置し、デジタル環境と物理環境の両方で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - Jailbreaking LLM-Controlled Robots [82.04590367171932]
大規模言語モデル(LLM)は、文脈推論と直感的な人間とロボットの相互作用を可能にすることによって、ロボット工学の分野に革命をもたらした。
LLMは脱獄攻撃に弱いため、悪意のあるプロンプトはLLMの安全ガードレールをバイパスすることで有害なテキストを誘発する。
LLM制御ロボットをジェイルブレイクするアルゴリズムであるRoboPAIRを紹介する。
論文 参考訳(メタデータ) (2024-10-17T15:55:36Z) - Is Generative AI the Next Tactical Cyber Weapon For Threat Actors? Unforeseen Implications of AI Generated Cyber Attacks [0.0]
本稿では,AIの誤用によるエスカレート脅威,特にLarge Language Models(LLMs)の使用について述べる。
一連の制御された実験を通じて、これらのモデルがどのようにして倫理的およびプライバシー保護を回避し、効果的にサイバー攻撃を発生させるかを実証する。
私たちはまた、サイバー攻撃の自動化と実行のために特別に設計されたカスタマイズされた微調整のLLMであるOccupy AIを紹介します。
論文 参考訳(メタデータ) (2024-08-23T02:56:13Z) - Unifying 3D Representation and Control of Diverse Robots with a Single Camera [48.279199537720714]
我々は,ロボットを視覚のみからモデル化し,制御することを自律的に学習するアーキテクチャであるNeural Jacobian Fieldsを紹介する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - ABNet: Attention BarrierNet for Safe and Scalable Robot Learning [58.4951884593569]
バリアベースの手法は、安全なロボット学習における主要なアプローチの1つである。
本稿では,より大規模な基本安全モデルを段階的に構築するスケーラブルなAttention BarrierNet(ABNet)を提案する。
2次元ロボット障害物回避、安全なロボット操作、視覚に基づくエンドツーエンド自動運転におけるABNetの強みを実証する。
論文 参考訳(メタデータ) (2024-06-18T19:37:44Z) - Cybersecurity and Embodiment Integrity for Modern Robots: A Conceptual Framework [3.29295880899738]
我々は、異なるデバイスに対するサイバー攻撃が、ロボットのタスクを完了させる能力に根本的に異なる結果をもたらすことを示す。
我々はまた、現代のロボットは、そのような側面に関して自己認識を持つべきだと主張する。
これらの提案を達成するには、ロボットは概念的にデバイスとタスクをリンクする少なくとも3つの特性を持つ必要がある。
論文 参考訳(メタデータ) (2024-01-15T15:46:38Z) - AI Security Threats against Pervasive Robotic Systems: A Course for Next
Generation Cybersecurity Workforce [0.9137554315375919]
ロボティクス、自動化、および関連する人工知能(AI)システムは、セキュリティ、安全性、正確性、信頼に関する懸念を広めている。
これらのシステムのセキュリティは、プライバシーの侵害、重要な操作妨害、身体の危害につながるサイバー攻撃を防ぐためにますます重要になっている。
このコースの説明には、"広汎なロボットシステムに対するAIセキュリティ脅威"に関する7つの自己完結型および適応型モジュールの詳細が含まれている。
論文 参考訳(メタデータ) (2023-02-15T21:21:20Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - RoboMal: Malware Detection for Robot Network Systems [4.357338639836869]
本稿では,バイナリ実行ファイル上で静的なマルウェア検出を行うRoboMalフレームワークを提案する。
このフレームワークは、GRU、CNN、ANNといった広く使われている教師付き学習モデルと比較される。
特に、LSTMベースのRoboMalモデルは、10倍のクロスバリデーションで85%の精度と87%の精度で他のモデルより優れている。
論文 参考訳(メタデータ) (2022-01-20T22:11:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。