論文の概要: Towards Assessing the Synthetic-to-Measured Adversarial Vulnerability of
SAR ATR
- arxiv url: http://arxiv.org/abs/2401.17038v1
- Date: Tue, 30 Jan 2024 14:16:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 14:57:38.809340
- Title: Towards Assessing the Synthetic-to-Measured Adversarial Vulnerability of
SAR ATR
- Title(参考訳): SAR ATRの可逆性評価に向けて
- Authors: Bowen Peng, Bo Peng, Jingyuan Xia, Tianpeng Liu, Yongxiang Liu, Li Liu
- Abstract要約: 本稿では,S2M(Synthetic-to-measured)転送設定について検討し,攻撃者が合成データのみに基づいて逆方向の摂動を発生させ,測定データを用いて訓練された被害者モデルに対して転送する。
また, この難易度の高いシナリオにおいて, 敵のリスクを明らかにするために, 転送可能性推定攻撃(TEA)を提案する。
- 参考スコア(独自算出の注目度): 16.144102386839574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, there has been increasing concern about the vulnerability of deep
neural network (DNN)-based synthetic aperture radar (SAR) automatic target
recognition (ATR) to adversarial attacks, where a DNN could be easily deceived
by clean input with imperceptible but aggressive perturbations. This paper
studies the synthetic-to-measured (S2M) transfer setting, where an attacker
generates adversarial perturbation based solely on synthetic data and transfers
it against victim models trained with measured data. Compared with the current
measured-to-measured (M2M) transfer setting, our approach does not need direct
access to the victim model or the measured SAR data. We also propose the
transferability estimation attack (TEA) to uncover the adversarial risks in
this more challenging and practical scenario. The TEA makes full use of the
limited similarity between the synthetic and measured data pairs for blind
estimation and optimization of S2M transferability, leading to feasible
surrogate model enhancement without mastering the victim model and data.
Comprehensive evaluations based on the publicly available synthetic and
measured paired labeled experiment (SAMPLE) dataset demonstrate that the TEA
outperforms state-of-the-art methods and can significantly enhance various
attack algorithms in computer vision and remote sensing applications. Codes and
data are available at https://github.com/scenarri/S2M-TEA.
- Abstract(参考訳): 近年、ディープニューラルネットワーク(DNN)をベースとした合成開口レーダ(SAR)による敵攻撃に対する自動目標認識(ATR)の脆弱性に対する懸念が高まっている。
本稿では,合成データのみに基づいて攻撃者が敵対的摂動を生成し,測定データを用いて訓練した被害者モデルに伝達する合成-測定(s2m)伝達設定について検討する。
現在測定されているM2M転送設定と比較して,本手法では被害者モデルやSARデータに直接アクセスする必要がない。
また, この難易度の高いシナリオにおいて, 敵のリスクを明らかにするために, 転送可能性推定攻撃(TEA)を提案する。
TEAは、S2M転送可能性のブラインド推定と最適化のために、合成データと測定データペアの限られた類似性をフル活用し、犠牲者モデルとデータをマスターすることなく、サロゲートモデルの強化を可能にする。
SAMPLE(Synthetic and measured paired labeled experiment)データセットに基づく総合評価では、TAAは最先端の手法よりも優れており、コンピュータビジョンやリモートセンシングアプリケーションにおける様々な攻撃アルゴリズムを大幅に向上させることができる。
コードとデータはhttps://github.com/scenarri/s2m-teaで入手できる。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Soft Segmented Randomization: Enhancing Domain Generalization in SAR-ATR for Synthetic-to-Measured [4.089756319249042]
ドメインの差を小さくし、自動目標認識モデルを一般化する能力を向上させるために設計された,新しいフレームワークであるソフトセグメントランダム化を導入する。
実験により,提案したソフトセグメントランダム化フレームワークは,測定された合成開口レーダデータに対するモデル性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-09-21T08:24:51Z) - Comprehensive Botnet Detection by Mitigating Adversarial Attacks, Navigating the Subtleties of Perturbation Distances and Fortifying Predictions with Conformal Layers [1.6001193161043425]
ボットネット(Botnet)は、悪意あるアクターによって制御されるコンピュータネットワークで、重要なサイバーセキュリティ上の課題を提示する。
本研究は、機械学習ベースのボットネット検出システムを弱体化させることを目的として、攻撃者が引き起こす高度な敵操作に対処する。
ISCXデータセットとISOTデータセットに基づいてトレーニングされた機械学習とディープラーニングアルゴリズムを活用するフローベース検出アプローチを導入する。
論文 参考訳(メタデータ) (2024-09-01T08:53:21Z) - Advancing DDoS Attack Detection: A Synergistic Approach Using Deep
Residual Neural Networks and Synthetic Oversampling [2.988269372716689]
本稿では,Deep Residual Neural Networks(ResNets)の機能を活用したDDoS攻撃検出の強化手法を提案する。
我々は、良性および悪意のあるデータポイントの表現のバランスをとり、モデルが攻撃を示す複雑なパターンをよりよく識別できるようにする。
実世界のデータセットを用いた実験結果から,従来の手法よりもはるかに優れた99.98%の精度が得られた。
論文 参考訳(メタデータ) (2024-01-06T03:03:52Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Improving Adversarial Transferability by Stable Diffusion [36.97548018603747]
敵対的な例は 良心サンプルに 知覚不能な摂動を導入 予測を欺く
ディープニューラルネットワーク(Deep Neural Network, DNN)は、良性サンプルに知覚不能な摂動を導入し、予測を誤認する敵の例に影響を受けやすい。
本稿では,SDAM(Stable Diffusion Attack Method)と呼ばれる新しい攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-11-18T09:10:07Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Autoregressive Perturbations for Data Poisoning [54.205200221427994]
ソーシャルメディアからのデータスクレイピングは、不正なデータの使用に関する懸念が高まっている。
データ中毒攻撃は、スクラップ対策として提案されている。
より広範なデータセットにアクセスせずに有毒なデータを生成できる自動回帰(AR)中毒を導入する。
論文 参考訳(メタデータ) (2022-06-08T06:24:51Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。