論文の概要: Environmental Matching Attack Against Unmanned Aerial Vehicles Object Detection
- arxiv url: http://arxiv.org/abs/2405.07595v1
- Date: Mon, 13 May 2024 09:56:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 14:15:10.704986
- Title: Environmental Matching Attack Against Unmanned Aerial Vehicles Object Detection
- Title(参考訳): 無人航空機物体検出に対する環境整合攻撃
- Authors: Dehong Kong, Siyuan Liang, Wenqi Ren,
- Abstract要約: 無人航空機の物体検出技術はディープニューラルネットワーク(DNN)に依存している
UAV領域の既存のアルゴリズムによって生成された敵パッチは、敵パッチの自然性にはほとんど注意を払わない。
本研究では,環境マッチング攻撃(EMA)と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 37.77615360932841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection techniques for Unmanned Aerial Vehicles (UAVs) rely on Deep Neural Networks (DNNs), which are vulnerable to adversarial attacks. Nonetheless, adversarial patches generated by existing algorithms in the UAV domain pay very little attention to the naturalness of adversarial patches. Moreover, imposing constraints directly on adversarial patches makes it difficult to generate patches that appear natural to the human eye while ensuring a high attack success rate. We notice that patches are natural looking when their overall color is consistent with the environment. Therefore, we propose a new method named Environmental Matching Attack(EMA) to address the issue of optimizing the adversarial patch under the constraints of color. To the best of our knowledge, this paper is the first to consider natural patches in the domain of UAVs. The EMA method exploits strong prior knowledge of a pretrained stable diffusion to guide the optimization direction of the adversarial patch, where the text guidance can restrict the color of the patch. To better match the environment, the contrast and brightness of the patch are appropriately adjusted. Instead of optimizing the adversarial patch itself, we optimize an adversarial perturbation patch which initializes to zero so that the model can better trade off attacking performance and naturalness. Experiments conducted on the DroneVehicle and Carpk datasets have shown that our work can reach nearly the same attack performance in the digital attack(no greater than 2 in mAP$\%$), surpass the baseline method in the physical specific scenarios, and exhibit a significant advantage in terms of naturalness in visualization and color difference with the environment.
- Abstract(参考訳): 無人航空機(UAV)の物体検出技術は、敵の攻撃に弱いディープニューラルネットワーク(DNN)に依存している。
それでも、UAVドメインの既存のアルゴリズムによって生成された敵パッチは、敵パッチの自然な性質にはほとんど注意を払わない。
さらに、対向パッチに直接制約を課すことにより、高い攻撃成功率を確保しつつ、人間の目に自然に見えるパッチを生成することが困難になる。
パッチが自然に見えるのは、全体的な色が環境と一致している時です。
そこで本研究では,環境マッチング攻撃(EMA)と呼ばれる新しい手法を提案する。
我々の知る限りでは、UAVの領域における自然なパッチを最初に検討する。
EMA法は、事前訓練された安定拡散の強い事前知識を利用して、テキストガイダンスがパッチの色を制限できる対向パッチの最適化方向を導出する。
環境に合うように、パッチのコントラストと明るさを適切に調整する。
敵パッチ自体を最適化する代わりに、敵の摂動パッチを最適化してゼロに初期化する。
DroneVehicleデータセットとCarpkデータセットで実施された実験によると、我々の研究はデジタルアタック(mAP$\%$で2以上)でほぼ同じ攻撃性能を達成でき、物理的な特定のシナリオにおけるベースラインメソッドを超え、環境との可視化と色差の自然性において大きな優位性を示す。
関連論文リスト
- CapGen:An Environment-Adaptive Generator of Adversarial Patches [12.042510965650205]
敵対的パッチは、しばしば重要な資産に対する物理的ステルス保護を提供するために使用され、通常、背景環境との視覚的調和の必要性を無視する。
カモフラージュ・アドリアバーサ・パターン・ジェネレータ (CAPGen) は, 周辺環境から特定の基本色を利用する新しい手法である。
本論文は,敵対パッチの文脈において,パターンや色が果たす役割を包括的に検討した最初の論文である。
論文 参考訳(メタデータ) (2024-12-10T07:24:24Z) - DiffPatch: Generating Customizable Adversarial Patches using Diffusion Model [88.14122962946858]
DiffPatchと呼ばれる新しい拡散型カスタマイズ可能なパッチ生成フレームワークを提案する。
提案手法により,ランダムノイズから始めるのではなく,参照画像をソースとして利用することが可能になる。
我々は, YOLOv5sを対象とする物理逆TシャツデータセットAdvPatch-1Kを開発した。
論文 参考訳(メタデータ) (2024-12-02T12:30:35Z) - Random Position Adversarial Patch for Vision Transformers [0.0]
本稿では,敵対パッチ(G-Patch)を生成する新しい手法を提案する。
勾配を用いてパッチを直接最適化する代わりに、GANのような構造を用いて逆パッチを生成する。
実験は、デジタルおよび物理世界のシナリオにおいて、ビジョントランスフォーマーに対する普遍的な攻撃を達成するための敵パッチの有効性を示す。
論文 参考訳(メタデータ) (2023-07-09T00:08:34Z) - AdvART: Adversarial Art for Camouflaged Object Detection Attacks [7.7889972735711925]
本稿では,自然主義的かつ不明瞭な敵パッチを生成するための新しいアプローチを提案する。
本手法は,パッチ内の画素値を直接操作することで,高い柔軟性と広い空間を実現する。
我々の攻撃は、デジタルワールドとエッジのスマートカメラでそれぞれ91.19%と72%の優れた成功率を達成する。
論文 参考訳(メタデータ) (2023-03-03T06:28:05Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Generating Adversarial yet Inconspicuous Patches with a Single Image [15.217367754000913]
そこで本研究では, 対角的かつ不明瞭なパッチを単一画像で生成する手法を提案する。
提案手法では,複数スケールのジェネレータと識別器を用いて,逆パッチを粗大な方法で生成する。
我々のap-proachは、ホワイトボックスとブラックボックスの両方で強力な攻撃能力を示している。
論文 参考訳(メタデータ) (2020-09-21T11:56:01Z) - Bias-based Universal Adversarial Patch Attack for Automatic Check-out [59.355948824578434]
逆の例は、ディープニューラルネットワーク(DNN)を簡単に誤解させる、知覚不能な摂動を持つ入力である。
既存の戦略は強力な一般化能力を持つ敵パッチを生成できなかった。
本稿では,強い一般化能力を持つクラス非依存の普遍的敵パッチを生成するためのバイアスベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-19T07:38:54Z) - Adversarial Training against Location-Optimized Adversarial Patches [84.96938953835249]
反対のパッチ: 明らかに見えますが 反対に作られた長方形のパッチです
まず、画像内の位置を積極的に最適化しながら、相手パッチを得るための実践的なアプローチを考案する。
CIFAR10とGTSRBでは,これらの位置最適化された対向パッチに対して対向トレーニングを適用し,ロバスト性を著しく向上した。
論文 参考訳(メタデータ) (2020-05-05T16:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。