論文の概要: Physical Adversarial Attacks on an Aerial Imagery Object Detector
- arxiv url: http://arxiv.org/abs/2108.11765v1
- Date: Thu, 26 Aug 2021 12:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-27 14:01:09.675107
- Title: Physical Adversarial Attacks on an Aerial Imagery Object Detector
- Title(参考訳): 空中画像オブジェクト検出器における物理対向攻撃
- Authors: Andrew Du, Bo Chen, Tat-Jun Chin, Yee Wei Law, Michele Sasdelli,
Ramesh Rajasegaran, Dillon Campbell
- Abstract要約: 本研究は,航空画像に対する物理的敵攻撃に関する最初の試みの1つを示す。
本研究では,空域における物体検出装置に対する物理的敵攻撃の有効性を評価するための新しい実験と指標を考案した。
以上の結果から,衛星画像処理のための深層ニューラルネットワークに対する物理的敵攻撃によって引き起こされる触知可能な脅威が示唆された。
- 参考スコア(独自算出の注目度): 32.99554861896277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have become essential for processing the vast
amounts of aerial imagery collected using earth-observing satellite platforms.
However, DNNs are vulnerable towards adversarial examples, and it is expected
that this weakness also plagues DNNs for aerial imagery. In this work, we
demonstrate one of the first efforts on physical adversarial attacks on aerial
imagery, whereby adversarial patches were optimised, fabricated and installed
on or near target objects (cars) to significantly reduce the efficacy of an
object detector applied on overhead images. Physical adversarial attacks on
aerial images, particularly those captured from satellite platforms, are
challenged by atmospheric factors (lighting, weather, seasons) and the distance
between the observer and target. To investigate the effects of these
challenges, we devised novel experiments and metrics to evaluate the efficacy
of physical adversarial attacks against object detectors in aerial scenes. Our
results indicate the palpable threat posed by physical adversarial attacks
towards DNNs for processing satellite imagery.
- Abstract(参考訳): 深層ニューラルネットワーク(dnn)は、地球観測衛星プラットフォームを用いて収集された膨大な航空画像を処理するために不可欠である。
しかし、DNNは敵の例に弱いため、この弱点は空中画像のDNNにも悪影響を及ぼすことが期待される。
本研究では,空撮画像に対する物理的敵意攻撃に対する最初の取り組みの1つを実演し,敵意パッチを最適化し,目標対象物(cars)に製作・設置し,頭上画像に適用した物体検出装置の有効性を著しく低下させる。
航空画像、特に衛星プラットフォームから捉えた画像に対する物理的敵対攻撃は、大気要因(光、天気、季節)と観測者と観測者の間の距離によって挑戦される。
これらの課題の効果を調べるため,我々は,空中の物体探知機に対する物理的敵意攻撃の有効性を評価するための新しい実験と指標を考案した。
以上の結果から,衛星画像処理におけるdnnに対する物理的な敵対的攻撃による脅威が示唆された。
関連論文リスト
- Adversarial Camera Patch: An Effective and Robust Physical-World Attack
on Object Detectors [0.0]
研究者たちはパッチベースの物理的攻撃を探求していますが、従来のアプローチは効果的ですが、多くの場合、ターゲットオブジェクトをカバーする顕著なパッチが発生します。
近年、カメラベースの物理的攻撃が出現し、カメラパッチを活用してステルス攻撃を実行している。
この問題に対処するために,ADCP (Adversarial Camera Patch) を提案する。
論文 参考訳(メタデータ) (2023-12-11T06:56:50Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - CBA: Contextual Background Attack against Optical Aerial Detection in
the Physical World [8.826711009649133]
パッチベースの物理的攻撃はますます懸念を喚起している。
既存の手法のほとんどは地上で捕獲された標的を隠蔽することに焦点を当てており、これらの手法のいくつかは単に空中探知機を欺くように拡張されている。
本研究では,空中検出に対する新たな物理的攻撃フレームワークであるコンテキスト背景攻撃(CBA)を提案する。
論文 参考訳(メタデータ) (2023-02-27T05:10:27Z) - Contextual adversarial attack against aerial detection in the physical
world [8.826711009649133]
ディープニューラルネットワーク(DNN)は、空中検出に広く利用されている。
物理的な攻撃は、現実の世界でより実践的であるため、徐々にホットな問題になっている。
本研究では,実シナリオにおける空中検出に対する革新的なコンテキストアタック手法を提案する。
論文 参考訳(メタデータ) (2023-02-27T02:57:58Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Empirical Evaluation of Physical Adversarial Patch Attacks Against
Overhead Object Detection Models [2.2588953434934416]
逆パッチ(Adversarial patch)は、ニューラルネットワークベースのコンピュータビジョンモデルに悪用されたイメージである。
近年の研究では、これらの攻撃が物理的世界への移動に成功できることが示されている。
我々はさらに、より困難な条件下で、物理的世界における敵パッチ攻撃の有効性を検証した。
論文 参考訳(メタデータ) (2022-06-25T20:05:11Z) - Adversarial Zoom Lens: A Novel Physical-World Attack to DNNs [0.0]
本稿では,Adrial Zoom Lens (AdvZL) と呼ばれる新しい物理対向攻撃手法を実演する。
AdvZLはズームレンズを使って物理世界の画像をズームイン/アウトし、ターゲットの物体の特性を変えることなくDNNを騙す。
デジタル環境では,AdvZLに基づくデータセットを構築し,DNNに対する等スケール拡大画像の対角性を検証する。
物理環境では、ズームレンズを操作して対象物体の内外をズームインし、対向サンプルを生成する。
論文 参考訳(メタデータ) (2022-06-23T13:03:08Z) - Exploring Frequency Adversarial Attacks for Face Forgery Detection [59.10415109589605]
フェースフォージェリ検出器に対する周波数対向攻撃法を提案する。
また,メタラーニングの概念に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:34:13Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。