論文の概要: Time-Constrained Intelligent Adversaries for Automation Vulnerability Testing: A Multi-Robot Patrol Case Study
- arxiv url: http://arxiv.org/abs/2509.11971v1
- Date: Mon, 15 Sep 2025 14:22:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.337083
- Title: Time-Constrained Intelligent Adversaries for Automation Vulnerability Testing: A Multi-Robot Patrol Case Study
- Title(参考訳): 自動脆弱性テストのための時間制限されたインテリジェントアドバーナリー:マルチロボットパトロールケーススタディ
- Authors: James C. Ward, Alex Bott, Connor York, Edmund R. Hunt,
- Abstract要約: 本稿では,ロボットのパトロール行動を監視する機械学習に基づく敵モデルを提案する。
このようなモデルは、現実的な潜在的な敵に対するパトロールシステムの評価を可能にし、将来のパトロール戦略設計に関する洞察を提供する。
- 参考スコア(独自算出の注目度): 0.3779860024918729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simulating hostile attacks of physical autonomous systems can be a useful tool to examine their robustness to attack and inform vulnerability-aware design. In this work, we examine this through the lens of multi-robot patrol, by presenting a machine learning-based adversary model that observes robot patrol behavior in order to attempt to gain undetected access to a secure environment within a limited time duration. Such a model allows for evaluation of a patrol system against a realistic potential adversary, offering insight into future patrol strategy design. We show that our new model outperforms existing baselines, thus providing a more stringent test, and examine its performance against multiple leading decentralized multi-robot patrol strategies.
- Abstract(参考訳): 物理的自律システムの敵対的攻撃をシミュレーションすることは、その堅牢性を検証し、脆弱性を認識した設計を通知するのに有用なツールである。
本研究では,マルチロボットパトロールのレンズを用いてこれを検証し,ロボットパトロールの動作を観測する機械学習に基づく敵モデルを提案する。
このようなモデルは、現実的な潜在的な敵に対するパトロールシステムの評価を可能にし、将来のパトロール戦略設計に関する洞察を提供する。
我々の新しいモデルは既存のベースラインより優れており、より厳密なテストを提供し、複数の分散型マルチロボットパトロール戦略に対してその性能を検証している。
関連論文リスト
- Rethinking the Intermediate Features in Adversarial Attacks: Misleading Robotic Models via Adversarial Distillation [23.805401747928745]
本稿では,言語調和型ロボットモデルに適した,新たな対角攻撃を提案する。
本研究は,ロボット領域に直接移行した場合,既存の対角法が有効性に限界があることを実証する。
敵攻撃に対する中間的特徴の有益な影響を同定し,攻撃効果を高めるために,中間的自己意図的特徴の負の勾配を利用する。
論文 参考訳(メタデータ) (2024-11-21T02:46:04Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [68.36528819227641]
本稿では,ビジョン・ランゲージ・アクション(VLA)モデルのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する2つの未目標攻撃目標と,ロボット軌道を操作する目標攻撃目標を導入する。
我々は、カメラの視野に小さなカラフルなパッチを配置し、デジタルと物理の両方の環境で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - Attack End-to-End Autonomous Driving through Module-Wise Noise [4.281151553151594]
本稿では,モジュラー・エンド・エンド・エンド・エンドの自律運転モデルに関する総合的対角セキュリティ研究を行う。
モデル推論プロセスにおける潜在的な脆弱性を徹底的に検討し、モジュールワイドノイズ注入によるユニバーサルアタックスキームを設計する。
本研究では,フルスタック自動運転モデルを用いた大規模実験を行い,攻撃手法が従来の攻撃方法より優れていることを示す。
論文 参考訳(メタデータ) (2024-09-12T02:19:16Z) - Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Real-Time Anomaly Detection and Reactive Planning with Large Language Models [18.57162998677491]
例えば、大規模な言語モデル(LLM)は、インターネットスケールのデータに基づいて訓練され、ゼロショット機能を持つ。
本稿では,潜在的な異常に関する判断を安全な制御フレームワークに組み込む2段階の推論フレームワークを提案する。
これにより、モニターは、四輪車や自動運転車のような動的ロボットシステムの信頼性を向上させることができる。
論文 参考訳(メタデータ) (2024-07-11T17:59:22Z) - Targeted Attack on Deep RL-based Autonomous Driving with Learned Visual
Patterns [18.694795507945603]
近年の研究では、敵の攻撃に対する深い強化学習を通じて学んだコントロールポリシーの脆弱性が実証されている。
本研究では, 物理的対象物に配置した視覚的学習パターンを用いて, 標的攻撃の実現可能性について検討する。
論文 参考訳(メタデータ) (2021-09-16T04:59:06Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。