論文の概要: GhostImage: Remote Perception Attacks against Camera-based Image
Classification Systems
- arxiv url: http://arxiv.org/abs/2001.07792v3
- Date: Tue, 23 Jun 2020 20:13:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 23:52:02.654490
- Title: GhostImage: Remote Perception Attacks against Camera-based Image
Classification Systems
- Title(参考訳): ghostimage: カメラベースの画像分類システムに対するリモートセンシング攻撃
- Authors: Yanmao Man, Ming Li, Ryan Gerdes
- Abstract要約: 視覚に基づくオブジェクト分類システムでは、センサーが環境を認識し、機械学習を使用して意思決定のためにオブジェクトを検出し分類する。
我々は、攻撃者が突発的なオブジェクトを作成したり、既存のオブジェクトを変更したりすることを可能にするために、認識ドメインをリモートかつ控えめに利用する方法を実証する。
- 参考スコア(独自算出の注目度): 6.637193297008101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In vision-based object classification systems imaging sensors perceive the
environment and machine learning is then used to detect and classify objects
for decision-making purposes; e.g., to maneuver an automated vehicle around an
obstacle or to raise an alarm to indicate the presence of an intruder in
surveillance settings. In this work we demonstrate how the perception domain
can be remotely and unobtrusively exploited to enable an attacker to create
spurious objects or alter an existing object. An automated system relying on a
detection/classification framework subject to our attack could be made to
undertake actions with catastrophic results due to attacker-induced
misperception.
We focus on camera-based systems and show that it is possible to remotely
project adversarial patterns into camera systems by exploiting two common
effects in optical imaging systems, viz., lens flare/ghost effects and
auto-exposure control. To improve the robustness of the attack to channel
effects, we generate optimal patterns by integrating adversarial machine
learning techniques with a trained end-to-end channel model. We experimentally
demonstrate our attacks using a low-cost projector, on three different image
datasets, in indoor and outdoor environments, and with three different cameras.
Experimental results show that, depending on the projector-camera distance,
attack success rates can reach as high as 100% and under targeted conditions.
- Abstract(参考訳): 視覚に基づく物体分類システムでは、センサーが環境を認識し、機械学習が意思決定のために物体を検出し、分類するために使用される。
本研究では,攻撃者がスプリアスオブジェクトを作成したり,既存のオブジェクトを変更することを可能にするために,知覚領域を遠隔かつ傍受的に活用する方法を実証する。
攻撃の対象となる検出/分類フレームワークに依存する自動システムは,攻撃者による誤認識による破滅的な結果を伴う行動をとることができる。
カメラベースシステムに焦点をあて、光学画像システム(viz.)、レンズフレア/ゴースト効果(ghost effect)、自動露光制御(auto-exposure control)の2つの一般的な効果を活用することにより、カメラシステムに敵対パターンを遠隔で投影することが可能であることを示す。
チャネル効果に対する攻撃のロバスト性を改善するため、学習したエンド・ツー・エンドのチャネルモデルと敵対的機械学習技術を統合することで最適なパターンを生成する。
我々は,低コストプロジェクタ,3つの異なる画像データセット,屋内および屋外環境,および3つの異なるカメラを用いた攻撃を実験的に実証した。
実験の結果,プロジェクタカメラ距離によっては,攻撃成功率は100%,目標条件下では100%に達することがわかった。
関連論文リスト
- Transient Adversarial 3D Projection Attacks on Object Detection in Autonomous Driving [15.516055760190884]
本稿では,自律運転シナリオにおける物体検出を対象とする3Dプロジェクション攻撃を提案する。
本研究は, YOLOv3 と Mask R-CNN の物理環境における攻撃効果を示すものである。
論文 参考訳(メタデータ) (2024-09-25T22:27:11Z) - Understanding Impacts of Electromagnetic Signal Injection Attacks on Object Detection [33.819549876354515]
本稿では,サイバー物理攻撃が物体検出モデルに与える影響を定量化し,解析する。
イメージセンサーが捉えた画像は、サイバー物理攻撃など、実際の応用におけるさまざまな要因に影響される可能性がある。
論文 参考訳(メタデータ) (2024-07-23T09:22:06Z) - Physical Adversarial Examples for Multi-Camera Systems [2.3759432635713895]
物理対向例に対するマルチカメラ装置のロバスト性を評価する。
Transcender-MCは、最先端の手法よりも、マルチカメラのセットアップをうまく攻撃するのに11%有効である。
論文 参考訳(メタデータ) (2023-11-14T21:04:49Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - On the Adversarial Robustness of Camera-based 3D Object Detection [21.091078268929667]
本研究では, カメラを用いた3次元物体検出手法の諸条件下でのロバスト性について検討する。
鳥眼ビューに基づく表現は, 局所攻撃に対する強い強靭性を示す。
深さ推定のないアプローチは、強い強靭性を示す可能性がある。
マルチフレームベニグインプットを組み込むことで、敵攻撃を効果的に軽減することができる。
論文 参考訳(メタデータ) (2023-01-25T18:59:15Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Coordinate-Aligned Multi-Camera Collaboration for Active Multi-Object
Tracking [114.16306938870055]
AMOTのための座標整列型マルチカメラ協調システムを提案する。
提案手法では,各カメラをエージェントとみなし,マルチエージェント強化学習ソリューションを用いてAMOTに対処する。
本システムでは,ベースライン法を8.9%上回る71.88%のカバレッジを実現している。
論文 参考訳(メタデータ) (2022-02-22T13:28:40Z) - They See Me Rollin': Inherent Vulnerability of the Rolling Shutter in
CMOS Image Sensors [21.5487020124302]
カメラの電子回転シャッターを利用して微細な画像破壊を注入することができる。
敵がレーザーを変調して、最先端の検出器で認識される物体の75%を隠蔽する方法を示す。
以上の結果から,ローリングシャッター攻撃は視覚に基づくインテリジェントシステムの性能と信頼性を大幅に低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2021-01-25T11:14:25Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Unadversarial Examples: Designing Objects for Robust Vision [100.4627585672469]
現代の機械学習アルゴリズムの感度を入力摂動に活かし、「ロバストオブジェクト」を設計するフレームワークを開発しています。
標準ベンチマークから(シミュレーション中)ロボット工学まで,さまざまな視覚ベースのタスクに対するフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-22T18:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。