論文の概要: Realistic Scatterer Based Adversarial Attacks on SAR Image Classifiers
- arxiv url: http://arxiv.org/abs/2312.02912v1
- Date: Tue, 5 Dec 2023 17:36:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 14:57:14.682401
- Title: Realistic Scatterer Based Adversarial Attacks on SAR Image Classifiers
- Title(参考訳): sar画像分類器に対する現実的散乱器に基づく逆攻撃
- Authors: Tian Ye, Rajgopal Kannan, Viktor Prasanna, Carl Busart, Lance Kaplan
- Abstract要約: 対向攻撃は、分類器を誤用して誤った予測を行うように、地上目標のSAR画像を摂動する。
本研究は,散乱器を用いた物理対向攻撃であるOn-Target Scatterer Attack (OTSA)を提案する。
本研究は,既存の手法と比較して,位置制約下での攻撃による成功率が有意に高いことを示す。
- 参考スコア(独自算出の注目度): 7.858656052565242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks have highlighted the vulnerability of classifiers based
on machine learning for Synthetic Aperture Radar (SAR) Automatic Target
Recognition (ATR) tasks. An adversarial attack perturbs SAR images of on-ground
targets such that the classifiers are misled into making incorrect predictions.
However, many existing attacking techniques rely on arbitrary manipulation of
SAR images while overlooking the feasibility of executing the attacks on
real-world SAR imagery. Instead, adversarial attacks should be able to be
implemented by physical actions, for example, placing additional false objects
as scatterers around the on-ground target to perturb the SAR image and fool the
SAR ATR.
In this paper, we propose the On-Target Scatterer Attack (OTSA), a
scatterer-based physical adversarial attack. To ensure the feasibility of its
physical execution, we enforce a constraint on the positioning of the
scatterers. Specifically, we restrict the scatterers to be placed only on the
target instead of in the shadow regions or the background. To achieve this, we
introduce a positioning score based on Gaussian kernels and formulate an
optimization problem for our OTSA attack. Using a gradient ascent method to
solve the optimization problem, the OTSA can generate a vector of parameters
describing the positions, shapes, sizes and amplitudes of the scatterers to
guide the physical execution of the attack that will mislead SAR image
classifiers. The experimental results show that our attack obtains
significantly higher success rates under the positioning constraint compared
with the existing method.
- Abstract(参考訳): 敵対的攻撃は、SAR(Synthetic Aperture Radar)タスクのための機械学習に基づく分類器の脆弱性を強調している。
対向攻撃は、分類器を誤用して誤った予測を行うように、地上目標のSAR画像を摂動する。
しかし、既存の攻撃技術の多くは、現実世界のSAR画像に対する攻撃の実行可能性を見越しながら、任意のSAR画像の操作に依存している。
例えば、sarイメージを乱してsar atrを騙すために、追加の偽のオブジェクトを地上のターゲットの周りに散乱器として配置するなどである。
本稿では,散乱器を用いた物理的対向攻撃であるOn-Target Scatterer Attack (OTSA)を提案する。
物理的実行の実現性を確保するため,散乱器の位置決めに制約を課す。
具体的には,散乱器を影領域や背景ではなく,ターゲットにのみ配置するように制限する。
そこで我々は,ガウスカーネルに基づく位置決めスコアを導入し,OTSA攻撃に対する最適化問題を定式化する。
最適化問題を解くために勾配上昇法を用いて、OTSAは散乱器の位置、形状、大きさ、振幅を記述するパラメータのベクトルを生成し、SAR画像分類器を誤解させるような攻撃の物理的実行を導く。
実験の結果,従来の手法に比べて位置決め制約下での攻撃成功率が有意に高いことがわかった。
関連論文リスト
- Uncertainty-Aware SAR ATR: Defending Against Adversarial Attacks via Bayesian Neural Networks [7.858656052565242]
敵攻撃は、自動ターゲット認識(ATR)システムにおける機械学習(ML)画像分類器の脆弱性を実証している。
敵攻撃を検出するための新しい不確実性認識型SAR ATRを提案する。
論文 参考訳(メタデータ) (2024-03-27T07:40:51Z) - SAR-AE-SFP: SAR Imagery Adversarial Example in Real Physics domain with
Target Scattering Feature Parameters [2.3930545422544856]
現在のSAR画像の逆例生成法は、画像逆例として知られる2次元デジタルドメインで動作する。
本稿では,SAR-AE-SFP-Attackを提案する。
実験結果から,SAR-AE-SFPアタックはCNNモデルやTransformerモデルに対する攻撃効率を大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-03-02T13:52:28Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - SAIF: Sparse Adversarial and Imperceptible Attack Framework [7.025774823899217]
Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新しい攻撃手法を提案する。
具体的には、少数の画素で低次摂動を含む知覚不能な攻撃を設計し、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
SAIFは、非常に受け入れ難い、解釈可能な敵の例を計算し、ImageNetデータセット上で最先端のスパース攻撃手法より優れている。
論文 参考訳(メタデータ) (2022-12-14T20:28:50Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - SPAA: Stealthy Projector-based Adversarial Attacks on Deep Image
Classifiers [82.19722134082645]
本稿では,ステルスプロジェクタを用いた対向攻撃を提案する。
PCNetというディープニューラルネットワークを用いて実際のプロジェクトとキャプチャ操作を推定します。
実験の結果,SPAAは高い攻撃成功率を達成し,他の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-10T18:14:03Z) - Learning to Attack with Fewer Pixels: A Probabilistic Post-hoc Framework
for Refining Arbitrary Dense Adversarial Attacks [21.349059923635515]
敵対的回避攻撃は ディープニューラルネットワーク画像分類器に 影響を受けやすいと報告されている
本稿では,乱れ画素数を著しく減少させることで,高密度攻撃を抑える確率的ポストホックフレームワークを提案する。
我々のフレームワークは、既存のスパース攻撃よりもはるかに高速に敵攻撃を行う。
論文 参考訳(メタデータ) (2020-10-13T02:51:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。