論文の概要: Universal Adversarial Examples in Remote Sensing: Methodology and
Benchmark
- arxiv url: http://arxiv.org/abs/2202.07054v1
- Date: Mon, 14 Feb 2022 21:52:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 15:09:36.257340
- Title: Universal Adversarial Examples in Remote Sensing: Methodology and
Benchmark
- Title(参考訳): リモートセンシングにおけるユニバーサル・ディバーショナル・サンプル:方法論とベンチマーク
- Authors: Yonghao Xu and Pedram Ghamisi
- Abstract要約: リモートセンシングデータに対して,新しいブラックボックス逆攻撃手法であるMixup-Attackと,その簡易な派生型Mixcut-Attackを提案する。
その単純さにもかかわらず、提案手法は、最先端のディープニューラルネットワークの大部分を欺く、転送可能な敵の例を生成することができる。
UAE-RSというデータセットは、リモートセンシングフィールドでブラックボックスの敵サンプルを提供する最初のデータセットである。
- 参考スコア(独自算出の注目度): 17.13291434132985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have achieved great success in many important remote
sensing tasks. Nevertheless, their vulnerability to adversarial examples should
not be neglected. In this study, we systematically analyze the universal
adversarial examples in remote sensing data for the first time, without any
knowledge from the victim model. Specifically, we propose a novel black-box
adversarial attack method, namely Mixup-Attack, and its simple variant
Mixcut-Attack, for remote sensing data. The key idea of the proposed methods is
to find common vulnerabilities among different networks by attacking the
features in the shallow layer of a given surrogate model. Despite their
simplicity, the proposed methods can generate transferable adversarial examples
that deceive most of the state-of-the-art deep neural networks in both scene
classification and semantic segmentation tasks with high success rates. We
further provide the generated universal adversarial examples in the dataset
named UAE-RS, which is the first dataset that provides black-box adversarial
samples in the remote sensing field. We hope UAE-RS may serve as a benchmark
that helps researchers to design deep neural networks with strong resistance
toward adversarial attacks in the remote sensing field. Codes and the UAE-RS
dataset will be available online.
- Abstract(参考訳): ディープニューラルネットワークは多くの重要なリモートセンシングタスクで大きな成功を収めています。
それでも、敵の例に対する脆弱性は無視されるべきではない。
本研究では,リモートセンシングデータにおける普遍的敵対例を,被害者モデルから何の知識もなく,初めて体系的に解析する。
具体的には,リモートセンシングデータに対する新しいブラックボックス攻撃手法であるmixup-attackと,その単純変種であるmixcut-attackを提案する。
提案手法の鍵となる考え方は、与えられたサーロゲートモデルの浅い層の特徴を攻撃することによって、異なるネットワーク間で共通の脆弱性を見つけることである。
そのシンプルさにもかかわらず、提案手法は、シーン分類とセマンティクスセグメンテーションタスクの両方において、最先端のディープニューラルネットワークの大部分を高い成功率で欺く、転送可能な逆向きの例を生成することができる。
我々はさらに,uae-rsというデータセットにおいて生成された普遍的な敵意の例を示し,リモートセンシングの分野でブラックボックスの敵意的なサンプルを提供する最初のデータセットである。
uae-rsは、研究者がリモートセンシング分野の敵対的攻撃に対して強い抵抗を持つディープニューラルネットワークを設計するのに役立つベンチマークになることを期待している。
コードとUAE-RSデータセットはオンラインで提供される。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Rethinking Targeted Adversarial Attacks For Neural Machine Translation [56.10484905098989]
本報告では,NMTが標的とする敵攻撃に対して,信頼性の高い攻撃結果をもたらす可能性のある新たな設定を提案する。
新しい設定では、敵の例を作成するためのTWGA(Targeted Word Gradient Adversarial Attack)手法を提案する。
実験の結果,提案手法はNMTシステムに対する敵攻撃に対して忠実な攻撃効果をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-07T10:16:06Z) - Boosting Adversarial Transferability via Fusing Logits of Top-1
Decomposed Feature [36.78292952798531]
本稿では,Singular Value Decomposition(SVD)に基づく特徴レベル攻撃法を提案する。
提案手法は,中間層特徴量より大きい特異値に付随する固有ベクトルがより優れた一般化と注意特性を示すという発見に着想を得たものである。
論文 参考訳(メタデータ) (2023-05-02T12:27:44Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Demotivate adversarial defense in remote sensing [0.0]
本研究は,この目的に対する対人防御として,対人訓練と対人正規化について検討する。
対角的堅牢性は地理的および過度に適合するロバスト性とは無関係と思われる公共のリモートセンシングデータセットについていくつかの実験を行った。
論文 参考訳(メタデータ) (2021-05-28T15:04:37Z) - DAFAR: Detecting Adversaries by Feedback-Autoencoder Reconstruction [7.867922462470315]
DAFARは、ディープラーニングモデルにより、高い精度と普遍性で敵の例を検出することができる。
ターゲットネットワークに対する受動的摂動攻撃を、フィードバックオートエンコーダに対する明らかなリコンストラクションエラー攻撃に直接変換する。
実験によると、DAFARは合法的なサンプルのパフォーマンスを失うことなく、人気があり、間違いなく最も先進的な攻撃に対して効果的です。
論文 参考訳(メタデータ) (2021-03-11T06:18:50Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Miss the Point: Targeted Adversarial Attack on Multiple Landmark
Detection [29.83857022733448]
本稿では,CNNをベースとしたモデルが,逆方向の摂動に対する複数のランドマーク検出に与える影響を初めて検討した。
本稿では,複数のランドマーク検出における最先端モデルに対する適応的反復FGSM攻撃を提案する。
論文 参考訳(メタデータ) (2020-07-10T07:58:35Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。