論文の概要: Scattering Model Guided Adversarial Examples for SAR Target Recognition:
Attack and Defense
- arxiv url: http://arxiv.org/abs/2209.04779v1
- Date: Sun, 11 Sep 2022 03:41:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:14:55.763470
- Title: Scattering Model Guided Adversarial Examples for SAR Target Recognition:
Attack and Defense
- Title(参考訳): SAR目標認識のための散乱モデル誘導逆例:攻撃と防御
- Authors: Bowen Peng, Bo Peng, Jie Zhou, Jianyue Xie, and Li Liu
- Abstract要約: 本稿では,SAR画像処理の領域知識を探求し,新たなSMGAAアルゴリズムを提案する。
提案したSMGAAアルゴリズムは、電磁散乱応答(逆散乱器と呼ばれる)の形で逆方向の摂動を生成することができる。
MSTARデータセットの総合的な評価は、SMGAAによって生成された対向散乱体は、現在研究されている攻撃よりも、SAR処理チェーンの摂動や変換に対してより堅牢であることを示している。
- 参考スコア(独自算出の注目度): 20.477411616398214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) based Synthetic Aperture Radar (SAR) Automatic
Target Recognition (ATR) systems have shown to be highly vulnerable to
adversarial perturbations that are deliberately designed yet almost
imperceptible but can bias DNN inference when added to targeted objects. This
leads to serious safety concerns when applying DNNs to high-stake SAR ATR
applications. Therefore, enhancing the adversarial robustness of DNNs is
essential for implementing DNNs to modern real-world SAR ATR systems. Toward
building more robust DNN-based SAR ATR models, this article explores the domain
knowledge of SAR imaging process and proposes a novel Scattering Model Guided
Adversarial Attack (SMGAA) algorithm which can generate adversarial
perturbations in the form of electromagnetic scattering response (called
adversarial scatterers). The proposed SMGAA consists of two parts: 1) a
parametric scattering model and corresponding imaging method and 2) a
customized gradient-based optimization algorithm. First, we introduce the
effective Attributed Scattering Center Model (ASCM) and a general imaging
method to describe the scattering behavior of typical geometric structures in
the SAR imaging process. By further devising several strategies to take the
domain knowledge of SAR target images into account and relax the greedy search
procedure, the proposed method does not need to be prudentially finetuned, but
can efficiently to find the effective ASCM parameters to fool the SAR
classifiers and facilitate the robust model training. Comprehensive evaluations
on the MSTAR dataset show that the adversarial scatterers generated by SMGAA
are more robust to perturbations and transformations in the SAR processing
chain than the currently studied attacks, and are effective to construct a
defensive model against the malicious scatterers.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)ベースのSAR(Synthetic Aperture Radar) 自動ターゲット認識(ATR)システムは、意図的に設計されているがほとんど認識できないが、ターゲットオブジェクトに追加された場合のDNN推論に偏りがある敵の摂動に対して非常に脆弱であることが示されている。
これにより、高いSAR ATRアプリケーションにDNNを適用する際の深刻な安全性上の懸念が生じる。
したがって、現代の現実世界SAR ATRシステムにDNNを実装するためには、DNNの対向ロバスト性を高めることが不可欠である。
本稿では、より堅牢なDNNベースのSAR ATRモデルの構築に向けて、SARイメージングプロセスのドメイン知識を探求し、電磁散乱応答(逆散乱散乱器と呼ばれる)の形で対向摂動を生成する新しいSMGAA(Scattering Model Guided Adversarial Attack)アルゴリズムを提案する。
提案されたSMGAAは2つの部分から構成される。
1)パラメトリック散乱モデルとそれに対応する撮像法
2) 最適化アルゴリズムをカスタマイズする。
まず, 実効的散乱中心モデル(ascm)と, sarイメージングプロセスにおける典型的な幾何学的構造の散乱挙動を記述する汎用イメージング手法を提案する。
さらに、SARターゲット画像のドメイン知識を考慮し、欲求探索手順を緩和する戦略を考案することにより、提案手法を巧妙に微調整する必要はないが、効率的なASCMパラメータを見つけることで、SAR分類器を騙し、堅牢なモデルトレーニングを容易にすることができる。
MSTARデータセットの総合的な評価は、SMGAAによって生成された逆散布機は、現在研究されている攻撃よりもSAR処理チェーンの摂動や変換に対して堅牢であり、悪意のある散布機に対する防御モデルを構築するのに有効であることを示している。
関連論文リスト
- Uncertainty-Aware SAR ATR: Defending Against Adversarial Attacks via Bayesian Neural Networks [7.858656052565242]
敵攻撃は、自動ターゲット認識(ATR)システムにおける機械学習(ML)画像分類器の脆弱性を実証している。
敵攻撃を検出するための新しい不確実性認識型SAR ATRを提案する。
論文 参考訳(メタデータ) (2024-03-27T07:40:51Z) - Black-box Adversarial Attacks against Dense Retrieval Models: A
Multi-view Contrastive Learning Method [115.29382166356478]
本稿では,敵探索攻撃(AREA)タスクを紹介する。
DRモデルは、DRモデルによって取得された候補文書の初期セットの外側にあるターゲット文書を取得するように、DRモデルを騙すことを目的としている。
NRM攻撃で報告された有望な結果は、DRモデルに一般化されない。
マルチビュー表現空間における対照的な学習問題として,DRモデルに対する攻撃を形式化する。
論文 参考訳(メタデータ) (2023-08-19T00:24:59Z) - FACADE: A Framework for Adversarial Circuit Anomaly Detection and
Evaluation [9.025997629442896]
FACADEは、ディープニューラルネットワークにおける教師なしの機械的異常検出のために設計されている。
我々のアプローチは、モデルの堅牢性を改善し、スケーラブルなモデル監視を強化し、現実のデプロイメント環境で有望なアプリケーションを実証することを目指している。
論文 参考訳(メタデータ) (2023-07-20T04:00:37Z) - TSFool: Crafting Highly-Imperceptible Adversarial Time Series through Multi-Objective Attack [6.243453526766042]
TSFoolと呼ばれる効率的な手法を提案する。
中心となる考え方は、「カモフラージュ係数」(Camouflage Coefficient)と呼ばれる新しい大域的な最適化目標であり、クラス分布から反対サンプルの非受容性を捉えるものである。
11のUCRデータセットとUEAデータセットの実験では、TSFoolは6つのホワイトボックスと3つのブラックボックスベンチマークアタックを著しく上回っている。
論文 参考訳(メタデータ) (2022-09-14T03:02:22Z) - Threat Model-Agnostic Adversarial Defense using Diffusion Models [14.603209216642034]
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
論文 参考訳(メタデータ) (2022-07-17T06:50:48Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Universal adversarial perturbation for remote sensing images [41.54094422831997]
本稿では,エンコーダ・デコーダネットワークとアテンション機構を組み合わせた新しい手法を提案する。
実験の結果、UAPはRSIを誤分類し、提案手法の攻撃成功率(ASR)は97.35%であることがわかった。
論文 参考訳(メタデータ) (2022-02-22T06:43:28Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。