論文の概要: Uncertainty-Aware SAR ATR: Defending Against Adversarial Attacks via Bayesian Neural Networks
- arxiv url: http://arxiv.org/abs/2403.18318v1
- Date: Wed, 27 Mar 2024 07:40:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 17:57:01.740652
- Title: Uncertainty-Aware SAR ATR: Defending Against Adversarial Attacks via Bayesian Neural Networks
- Title(参考訳): 不確かさを意識したSAR ATR:ベイズニューラルネットワークによる敵攻撃に対する防御
- Authors: Tian Ye, Rajgopal Kannan, Viktor Prasanna, Carl Busart,
- Abstract要約: 敵攻撃は、自動ターゲット認識(ATR)システムにおける機械学習(ML)画像分類器の脆弱性を実証している。
敵攻撃を検出するための新しい不確実性認識型SAR ATRを提案する。
- 参考スコア(独自算出の注目度): 7.858656052565242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks have demonstrated the vulnerability of Machine Learning (ML) image classifiers in Synthetic Aperture Radar (SAR) Automatic Target Recognition (ATR) systems. An adversarial attack can deceive the classifier into making incorrect predictions by perturbing the input SAR images, for example, with a few scatterers attached to the on-ground objects. Therefore, it is critical to develop robust SAR ATR systems that can detect potential adversarial attacks by leveraging the inherent uncertainty in ML classifiers, thereby effectively alerting human decision-makers. In this paper, we propose a novel uncertainty-aware SAR ATR for detecting adversarial attacks. Specifically, we leverage the capability of Bayesian Neural Networks (BNNs) in performing image classification with quantified epistemic uncertainty to measure the confidence for each input SAR image. By evaluating the uncertainty, our method alerts when the input SAR image is likely to be adversarially generated. Simultaneously, we also generate visual explanations that reveal the specific regions in the SAR image where the adversarial scatterers are likely to to be present, thus aiding human decision-making with hints of evidence of adversarial attacks. Experiments on the MSTAR dataset demonstrate that our approach can identify over 80% adversarial SAR images with fewer than 20% false alarms, and our visual explanations can identify up to over 90% of scatterers in an adversarial SAR image.
- Abstract(参考訳): 敵攻撃は、SAR(Synthetic Aperture Radar)自動ターゲット認識(ATR)システムにおいて機械学習(ML)画像分類器の脆弱性を実証した。
対向攻撃は、例えば、地上オブジェクトにいくつかの散乱器を取り付けて入力されたSAR画像を摂動させることで、分類器を誤予測させることができる。
したがって、ML分類器に固有の不確実性を活用して潜在的な敵攻撃を検出できる堅牢なSAR ATRシステムを開発することが重要である。
本稿では,敵攻撃を検出するための新しい不確実性を考慮したSAR ATRを提案する。
具体的には,各入力SAR画像の信頼度を測定するために,定量的なてんかん不確実性を伴う画像分類を行う上で,ベイズニューラルネットワーク(BNN)の能力を利用する。
この不確実性を評価することにより、入力されたSAR画像が逆向きに生成される可能性があることを警告する。
また同時に,SAR画像の特定の領域に敵対的散乱体が存在する可能性を示す視覚的説明も生成し,敵対的攻撃の証拠として人間の意思決定を支援する。
MSTARデータセットを用いた実験では, 80%以上の逆SAR画像を20%未満の誤報で識別でき, 対SAR画像中の最大90%の散乱体を視覚的説明で識別できることがわかった。
関連論文リスト
- StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Realistic Scatterer Based Adversarial Attacks on SAR Image Classifiers [7.858656052565242]
対向攻撃は、分類器を誤用して誤った予測を行うように、地上目標のSAR画像を摂動する。
本研究は,散乱器を用いた物理対向攻撃であるOn-Target Scatterer Attack (OTSA)を提案する。
本研究は,既存の手法と比較して,位置制約下での攻撃による成功率が有意に高いことを示す。
論文 参考訳(メタデータ) (2023-12-05T17:36:34Z) - Robust Adversarial Attacks Detection for Deep Learning based Relative
Pose Estimation for Space Rendezvous [8.191688622709444]
本稿では,ディープニューラルネットワークを用いた相対ポーズ推定手法の逆攻撃検出のための新しい手法を提案する。
提案した対向攻撃検出器は99.21%の精度で検出できる。
論文 参考訳(メタデータ) (2023-11-10T11:07:31Z) - Scattering Model Guided Adversarial Examples for SAR Target Recognition:
Attack and Defense [20.477411616398214]
本稿では,SAR画像処理の領域知識を探求し,新たなSMGAAアルゴリズムを提案する。
提案したSMGAAアルゴリズムは、電磁散乱応答(逆散乱器と呼ばれる)の形で逆方向の摂動を生成することができる。
MSTARデータセットの総合的な評価は、SMGAAによって生成された対向散乱体は、現在研究されている攻撃よりも、SAR処理チェーンの摂動や変換に対してより堅牢であることを示している。
論文 参考訳(メタデータ) (2022-09-11T03:41:12Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Multi-Expert Adversarial Attack Detection in Person Re-identification
Using Context Inconsistency [47.719533482898306]
本稿では,個人再識別(ReID)システムに対する悪意のある攻撃を検知するための,Multi-Expert Adversarial Detection(MEAAD)アプローチを提案する。
ReIDに対する最初の敵攻撃検出アプローチとして、MEAADは様々な敵攻撃を効果的に検出し、高いROC-AUC(97.5%以上)を達成する。
論文 参考訳(メタデータ) (2021-08-23T01:59:09Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain [2.4704085162861693]
Deep Neural Network(DNN)分類器を実生活で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
我々はFast Gradient Sign Methodを適用し、顔画像データセットに摂動を導入し、異なる分類器で出力をテストする。
我々は、最小の敵対的知識を前提に、さまざまなブラックボックス攻撃アルゴリズムを顔画像データセット上に構築する。
論文 参考訳(メタデータ) (2020-01-30T00:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。