論文の概要: Backdoor Attacks for Remote Sensing Data with Wavelet Transform
- arxiv url: http://arxiv.org/abs/2211.08044v2
- Date: Thu, 22 Jun 2023 15:43:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 18:02:35.197356
- Title: Backdoor Attacks for Remote Sensing Data with Wavelet Transform
- Title(参考訳): ウェーブレット変換によるリモートセンシングデータのバックドア攻撃
- Authors: Nikolaus Dr\"ager, Yonghao Xu, Pedram Ghamisi
- Abstract要約: 本稿では,リモートセンシングデータに対するバックドア攻撃の系統的解析を行う。
そこで本研究では, 有害画像にトリガ画像を注入することで, 目に見えない攻撃を可能にする新しいウェーブレット変換ベースアタック(WABA)手法を提案する。
その単純さにもかかわらず、提案手法は攻撃成功率の高い最先端のディープラーニングモデルをかなり騙すことができる。
- 参考スコア(独自算出の注目度): 14.50261153230204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed the great success of deep learning algorithms in
the geoscience and remote sensing realm. Nevertheless, the security and
robustness of deep learning models deserve special attention when addressing
safety-critical remote sensing tasks. In this paper, we provide a systematic
analysis of backdoor attacks for remote sensing data, where both scene
classification and semantic segmentation tasks are considered. While most of
the existing backdoor attack algorithms rely on visible triggers like squared
patches with well-designed patterns, we propose a novel wavelet transform-based
attack (WABA) method, which can achieve invisible attacks by injecting the
trigger image into the poisoned image in the low-frequency domain. In this way,
the high-frequency information in the trigger image can be filtered out in the
attack, resulting in stealthy data poisoning. Despite its simplicity, the
proposed method can significantly cheat the current state-of-the-art deep
learning models with a high attack success rate. We further analyze how
different trigger images and the hyper-parameters in the wavelet transform
would influence the performance of the proposed method. Extensive experiments
on four benchmark remote sensing datasets demonstrate the effectiveness of the
proposed method for both scene classification and semantic segmentation tasks
and thus highlight the importance of designing advanced backdoor defense
algorithms to address this threat in remote sensing scenarios. The code will be
available online at \url{https://github.com/ndraeger/waba}.
- Abstract(参考訳): 近年では、ジオサイエンスとリモートセンシングの分野でディープラーニングアルゴリズムが大きな成功を収めている。
それでも、安全クリティカルなリモートセンシングタスクに対処する場合には、ディープラーニングモデルのセキュリティと堅牢性が特に注目に値する。
本稿では,シーン分類とセマンティックセグメンテーションの両方を考慮したリモートセンシングデータに対するバックドア攻撃の系統的解析を行う。
既存のバックドアアタックアルゴリズムの多くは、よく設計されたパターンを持つ正方形パッチのような目に見えるトリガーに依存しているが、低周波領域の有毒画像にトリガーイメージを注入することで、目に見えないアタックを実現する新しいウェーブレット変換ベースアタック(WABA)手法を提案する。
このようにして、トリガー画像内の高周波情報を攻撃時にフィルタリングすることができ、ステルスデータ中毒を引き起こす。
その単純さにもかかわらず、提案手法は攻撃成功率の高い最先端のディープラーニングモデルをかなり騙すことができる。
さらに,ウェーブレット変換におけるトリガ画像とハイパーパラメータの違いが,提案手法の性能に与える影響を解析した。
4つのベンチマークリモートセンシングデータセットに関する広範な実験は、シーン分類とセマンティクスセグメンテーションタスクの両方における提案手法の有効性を示し、リモートセンシングシナリオにおけるこの脅威に対処するための高度なバックドア防御アルゴリズムの設計の重要性を強調している。
コードは \url{https://github.com/ndraeger/waba} で入手できる。
関連論文リスト
- Twin Trigger Generative Networks for Backdoor Attacks against Object Detection [14.578800906364414]
オブジェクト検出器は、現実世界のアプリケーションで広く使われているが、バックドア攻撃に弱い。
バックドア攻撃に関するほとんどの研究は画像分類に焦点を合わせており、物体検出について限定的な研究がなされている。
本研究では,トレーニング中のモデルにバックドアを埋め込むための目に見えないトリガと,推論中の安定したアクティベーションのための目に見えるトリガを生成する新しいツイントリガ生成ネットワークを提案する。
論文 参考訳(メタデータ) (2024-11-23T03:46:45Z) - Power side-channel leakage localization through adversarial training of deep neural networks [10.840434597980723]
監視されたディープラーニングは、暗号実装に対するパワーサイドチャネル攻撃を実行する効果的なツールとして登場した。
本稿では,暗号鍵の漏洩の原因となるパワートレースのタイムステップを特定する手法を提案する。
論文 参考訳(メタデータ) (2024-10-29T18:04:41Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Robust Adversarial Attacks Detection for Deep Learning based Relative
Pose Estimation for Space Rendezvous [8.191688622709444]
本稿では,ディープニューラルネットワークを用いた相対ポーズ推定手法の逆攻撃検出のための新しい手法を提案する。
提案した対向攻撃検出器は99.21%の精度で検出できる。
論文 参考訳(メタデータ) (2023-11-10T11:07:31Z) - Histogram Layer Time Delay Neural Networks for Passive Sonar
Classification [58.720142291102135]
時間遅延ニューラルネットワークとヒストグラム層を組み合わせた新しい手法により,特徴学習の改善と水中音響目標分類を実現する。
提案手法はベースラインモデルより優れており,受動的ソナー目標認識のための統計的文脈を取り入れた有効性を示す。
論文 参考訳(メタデータ) (2023-07-25T19:47:26Z) - Unsupervised Wildfire Change Detection based on Contrastive Learning [1.53934570513443]
山火事の深刻度を正確に評価することは, 火災発生地域における燃料条件のキャラクタリゼーションに寄与する。
本研究の目的は、高解像度マルチスペクトル衛星画像上に構築された自律システムを開発することである。
論文 参考訳(メタデータ) (2022-11-26T20:13:14Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。