論文の概要: Generating Transferrable Adversarial Examples via Local Mixing and Logits Optimization for Remote Sensing Object Recognition
- arxiv url: http://arxiv.org/abs/2509.07495v1
- Date: Tue, 09 Sep 2025 08:20:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.226809
- Title: Generating Transferrable Adversarial Examples via Local Mixing and Logits Optimization for Remote Sensing Object Recognition
- Title(参考訳): リモートセンシングオブジェクト認識のための局所混合とロジット最適化によるトランスファー可能な逆例の生成
- Authors: Chun Liu, Hailong Wang, Bingqian Zhu, Panpan Ding, Zheng Zheng, Tao Xu, Zhigang Han, Jiayao Wang,
- Abstract要約: ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱である。
本稿では,局所混合とロジット最適化による新しいフレームワークを提案する。
ブラックボックス攻撃の成功率の平均改善率は17.28%である。
- 参考スコア(独自算出の注目度): 5.6536225368328274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are vulnerable to adversarial attacks, posing significant security threats to their deployment in remote sensing applications. Research on adversarial attacks not only reveals model vulnerabilities but also provides critical insights for enhancing robustness. Although current mixing-based strategies have been proposed to increase the transferability of adversarial examples, they either perform global blending or directly exchange a region in the images, which may destroy global semantic features and mislead the optimization of adversarial examples. Furthermore, their reliance on cross-entropy loss for perturbation optimization leads to gradient diminishing during iterative updates, compromising adversarial example quality. To address these limitations, we focus on non-targeted attacks and propose a novel framework via local mixing and logits optimization. First, we present a local mixing strategy to generate diverse yet semantically consistent inputs. Different from MixUp, which globally blends two images, and MixCut, which stitches images together, our method merely blends local regions to preserve global semantic information. Second, we adapt the logit loss from targeted attacks to non-targeted scenarios, mitigating the gradient vanishing problem of cross-entropy loss. Third, a perturbation smoothing loss is applied to suppress high-frequency noise and enhance transferability. Extensive experiments on FGSCR-42 and MTARSI datasets demonstrate superior performance over 12 state-of-the-art methods across 6 surrogate models. Notably, with ResNet as the surrogate on MTARSI, our method achieves a 17.28% average improvement in black-box attack success rate.
- Abstract(参考訳): Deep Neural Networks(DNN)は、敵の攻撃に対して脆弱であり、リモートセンシングアプリケーションへの展開に重大なセキュリティ脅威をもたらす。
敵攻撃の研究は、モデルの脆弱性を明らかにするだけでなく、堅牢性を高めるための重要な洞察を提供する。
現在の混合型戦略は、敵の例の転送可能性を高めるために提案されているが、これらは、大域的なブレンディングまたは画像内の領域を直接交換することで、大域的な意味的特徴を破壊し、敵の例の最適化を誤解させる可能性がある。
さらに、摂動最適化におけるクロスエントロピー損失への依存は、反復更新時の勾配低下を招き、逆例の品質を損なう。
これらの制約に対処するため,非標的攻撃に着目し,局所混合とロジット最適化による新たなフレームワークを提案する。
まず、多様な意味的整合性のある入力を生成するための局所混合戦略を提案する。
グローバルに2つのイメージをブレンドするMixUpと,画像を縫合するMixCutとは違って,本手法ではローカル領域をブレンドしてグローバルなセマンティック情報を保存する。
第2に,目標とする攻撃からのロジット損失を非目標シナリオに適用し,クロスエントロピー損失の勾配解消問題を緩和する。
第3に、高周波ノイズを抑制し、伝達性を高めるために摂動平滑化損失を印加する。
FGSCR-42とMTARSIデータセットの大規模な実験は、6つのサロゲートモデルにわたる12の最先端手法よりも優れた性能を示している。
特に,MTARSIのサロゲートとしてResNetを用いると,ブラックボックス攻撃の成功率の平均改善率は17.28%となる。
関連論文リスト
- Active Adversarial Noise Suppression for Image Forgery Localization [56.98050814363447]
本稿では、敵騒音の攻撃効果を抑制するために、防御的摂動を発生させる敵騒音抑制モジュール(ANSM)を提案する。
我々の知る限りでは、画像フォージェリローカライゼーションタスクにおける敵対的防御の報告としてはこれが初めてである。
論文 参考訳(メタデータ) (2025-06-15T14:53:27Z) - LFAA: Crafting Transferable Targeted Adversarial Examples with
Low-Frequency Perturbations [25.929492841042666]
本稿では,トランスファー可能な対象対向例を生成するための新しい手法を提案する。
画像の高周波成分の摂動にディープニューラルネットワークの脆弱性を利用する。
提案手法は最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-10-31T04:54:55Z) - Transferable Adversarial Attack on Image Tampering Localization [7.177637468324888]
本稿では,このようなローカライザの信頼性を明らかにするために,敵攻撃方式を提案する。
ブラックボックス攻撃は、そのような敵の例を異なるローカライザに転送することで達成される。
論文 参考訳(メタデータ) (2023-09-19T01:48:01Z) - Enhancing the Self-Universality for Transferable Targeted Attacks [88.6081640779354]
本手法は,高次対角的摂動が標的攻撃に対してより伝達しやすい傾向にあることを示す。
異なる画像上の摂動を最適化する代わりに、異なる領域を最適化して自己ユニバーシティを実現することで、余分なデータを排除することができる。
特徴的類似性欠如により,本手法は,良性画像よりも対向性摂動の特徴が支配的となる。
論文 参考訳(メタデータ) (2022-09-08T11:21:26Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。