論文の概要: Adversarial Patch Attack for Ship Detection via Localized Augmentation
- arxiv url: http://arxiv.org/abs/2508.21472v1
- Date: Fri, 29 Aug 2025 09:55:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.99991
- Title: Adversarial Patch Attack for Ship Detection via Localized Augmentation
- Title(参考訳): 局所的拡張による船舶検出のための逆パッチアタック
- Authors: Chun Liu, Panpan Ding, Zheng Zheng, Hailong Wang, Bingqian Zhu, Tao Xu, Zhigang Han, Jiayao Wang,
- Abstract要約: 敵パッチ攻撃は、検出モデルによる誤分類や、目標の完全な回避につながる可能性がある。
本稿では,対象領域のみに拡張を適用し,非対象領域への影響を回避する手法を提案する。
HRSC2016データセットで行った実験は、提案手法が敵パッチ攻撃の成功率を効果的に向上させることを示した。
- 参考スコア(独自算出の注目度): 5.6536225368328274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current ship detection techniques based on remote sensing imagery primarily rely on the object detection capabilities of deep neural networks (DNNs). However, DNNs are vulnerable to adversarial patch attacks, which can lead to misclassification by the detection model or complete evasion of the targets. Numerous studies have demonstrated that data transformation-based methods can improve the transferability of adversarial examples. However, excessive augmentation of image backgrounds or irrelevant regions may introduce unnecessary interference, resulting in false detections of the object detection model. These errors are not caused by the adversarial patches themselves but rather by the over-augmentation of background and non-target areas. This paper proposes a localized augmentation method that applies augmentation only to the target regions, avoiding any influence on non-target areas. By reducing background interference, this approach enables the loss function to focus more directly on the impact of the adversarial patch on the detection model, thereby improving the attack success rate. Experiments conducted on the HRSC2016 dataset demonstrate that the proposed method effectively increases the success rate of adversarial patch attacks and enhances their transferability.
- Abstract(参考訳): リモートセンシング画像に基づく現在の船舶検出技術は主にディープニューラルネットワーク(DNN)の物体検出能力に依存している。
しかし、DNNは敵のパッチ攻撃に弱いため、検出モデルによる誤分類やターゲットの完全な回避につながる可能性がある。
多くの研究が、データ変換に基づく手法が敵の例の転送可能性を向上させることを実証している。
しかし、画像背景や無関係領域の過度な増大は、不要な干渉を引き起こし、オブジェクト検出モデルの誤検出を引き起こす可能性がある。
これらの誤りは、敵のパッチ自体が原因ではなく、背景領域と非標的領域の過度な増大によって引き起こされる。
本稿では,対象領域のみに拡張を適用し,非対象領域への影響を回避できる局所化拡張手法を提案する。
背景干渉を減らすことにより、損失関数は検出モデルに対する敵パッチの影響に直接焦点を合わせることができ、攻撃成功率を向上させることができる。
HRSC2016データセットで行った実験により、提案手法は敵パッチ攻撃の成功率を効果的に増加させ、転送可能性を高めることを示した。
関連論文リスト
- Universal and Efficient Detection of Adversarial Data through Nonuniform Impact on Network Layers [24.585379549997743]
ディープニューラルネットワーク(DNN)は、雑音の予算が限られている敵の入力設計に弱いことで知られている。
既存の検出手法は、最先端の攻撃技術に対して非効率であるか、あるいはリアルタイム処理において計算的に非効率であることを示す。
そこで本研究では,異なるDNN層に対する攻撃の影響の度合いを解析することにより,敵の事例を検出する,新しい汎用的で効率的な手法を提案する。
論文 参考訳(メタデータ) (2025-06-25T20:30:28Z) - Efficient Test-time Adaptive Object Detection via Sensitivity-Guided Pruning [73.40364018029673]
連続的なテスト時間適応オブジェクト検出(CTTA-OD)は、源となる事前訓練された検出器を常に変化する環境にオンライン適応させることを目的としている。
私たちのモチベーションは、学習したすべての特徴が有益であるとは限らないという観察に起因しています。
FLOPの計算オーバヘッドを12%削減し,優れた適応性を実現する。
論文 参考訳(メタデータ) (2025-06-03T05:27:56Z) - Robust Distribution Alignment for Industrial Anomaly Detection under Distribution Shift [51.24522135151649]
異常検出は産業アプリケーションの品質管理において重要な役割を担っている。
既存の方法は、一般化可能なモデルをトレーニングすることで、ドメインシフトに対処しようとする。
提案手法は,最先端の異常検出法や領域適応法と比較して,優れた結果を示す。
論文 参考訳(メタデータ) (2025-03-19T05:25:52Z) - Detecting Adversarial Attacks in Semantic Segmentation via Uncertainty Estimation: A Deep Analysis [12.133306321357999]
セグメンテーションのためのニューラルネットワークに対する敵攻撃を検出する不確実性に基づく手法を提案する。
我々は,不確実性に基づく敵攻撃の検出と様々な最先端ニューラルネットワークの詳細な解析を行う。
提案手法の有効性を示す数値実験を行った。
論文 参考訳(メタデータ) (2024-08-19T14:13:30Z) - MVPatch: More Vivid Patch for Adversarial Camouflaged Attacks on Object Detectors in the Physical World [7.1343035828597685]
我々は、一般化理論を敵対的パッチ(AP)の文脈に導入する。
本稿では、転送性、ステルス性、実用性を向上させるために、DPBF(Dual-Perception-Based Framework)を提案する。
MVPatchは、デジタルドメインと物理ドメインの両方において、優れた転送可能性と自然な外観を実現し、その有効性とステルス性を強調している。
論文 参考訳(メタデータ) (2023-12-29T01:52:22Z) - Adversarial Examples Detection with Enhanced Image Difference Features
based on Local Histogram Equalization [20.132066800052712]
本稿では,高頻度情報強調戦略に基づく逆例検出フレームワークを提案する。
このフレームワークは、敵の例と通常の例との特徴的差異を効果的に抽出し、増幅することができる。
論文 参考訳(メタデータ) (2023-05-08T03:14:01Z) - Enhancing the Self-Universality for Transferable Targeted Attacks [88.6081640779354]
本手法は,高次対角的摂動が標的攻撃に対してより伝達しやすい傾向にあることを示す。
異なる画像上の摂動を最適化する代わりに、異なる領域を最適化して自己ユニバーシティを実現することで、余分なデータを排除することができる。
特徴的類似性欠如により,本手法は,良性画像よりも対向性摂動の特徴が支配的となる。
論文 参考訳(メタデータ) (2022-09-08T11:21:26Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - A Perceptual Distortion Reduction Framework for Adversarial Perturbation
Generation [58.6157191438473]
2つの観点からこの問題に対処するための知覚的歪み低減フレームワークを提案する。
知覚的歪みの制約を提案し,それを敵攻撃の客観的機能に追加し,知覚的歪みと攻撃成功率を共同で最適化する。
論文 参考訳(メタデータ) (2021-05-01T15:08:10Z) - Robust and Accurate Object Detection via Adversarial Learning [111.36192453882195]
この研究は、逆の例を探索することで、物体検出器の微調整段階を補強する。
提案手法は,オブジェクト検出ベンチマークにおいて,最先端のEfficientDetsの性能を+1.1mAP向上させる。
論文 参考訳(メタデータ) (2021-03-23T19:45:26Z) - Miss the Point: Targeted Adversarial Attack on Multiple Landmark
Detection [29.83857022733448]
本稿では,CNNをベースとしたモデルが,逆方向の摂動に対する複数のランドマーク検出に与える影響を初めて検討した。
本稿では,複数のランドマーク検出における最先端モデルに対する適応的反復FGSM攻撃を提案する。
論文 参考訳(メタデータ) (2020-07-10T07:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。