論文の概要: Environmental Matching Attack Against Unmanned Aerial Vehicles Object Detection
- arxiv url: http://arxiv.org/abs/2405.07595v1
- Date: Mon, 13 May 2024 09:56:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 14:15:10.704986
- Title: Environmental Matching Attack Against Unmanned Aerial Vehicles Object Detection
- Title(参考訳): 無人航空機物体検出に対する環境整合攻撃
- Authors: Dehong Kong, Siyuan Liang, Wenqi Ren,
- Abstract要約: 無人航空機の物体検出技術はディープニューラルネットワーク(DNN)に依存している
UAV領域の既存のアルゴリズムによって生成された敵パッチは、敵パッチの自然性にはほとんど注意を払わない。
本研究では,環境マッチング攻撃(EMA)と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 37.77615360932841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection techniques for Unmanned Aerial Vehicles (UAVs) rely on Deep Neural Networks (DNNs), which are vulnerable to adversarial attacks. Nonetheless, adversarial patches generated by existing algorithms in the UAV domain pay very little attention to the naturalness of adversarial patches. Moreover, imposing constraints directly on adversarial patches makes it difficult to generate patches that appear natural to the human eye while ensuring a high attack success rate. We notice that patches are natural looking when their overall color is consistent with the environment. Therefore, we propose a new method named Environmental Matching Attack(EMA) to address the issue of optimizing the adversarial patch under the constraints of color. To the best of our knowledge, this paper is the first to consider natural patches in the domain of UAVs. The EMA method exploits strong prior knowledge of a pretrained stable diffusion to guide the optimization direction of the adversarial patch, where the text guidance can restrict the color of the patch. To better match the environment, the contrast and brightness of the patch are appropriately adjusted. Instead of optimizing the adversarial patch itself, we optimize an adversarial perturbation patch which initializes to zero so that the model can better trade off attacking performance and naturalness. Experiments conducted on the DroneVehicle and Carpk datasets have shown that our work can reach nearly the same attack performance in the digital attack(no greater than 2 in mAP$\%$), surpass the baseline method in the physical specific scenarios, and exhibit a significant advantage in terms of naturalness in visualization and color difference with the environment.
- Abstract(参考訳): 無人航空機(UAV)の物体検出技術は、敵の攻撃に弱いディープニューラルネットワーク(DNN)に依存している。
それでも、UAVドメインの既存のアルゴリズムによって生成された敵パッチは、敵パッチの自然な性質にはほとんど注意を払わない。
さらに、対向パッチに直接制約を課すことにより、高い攻撃成功率を確保しつつ、人間の目に自然に見えるパッチを生成することが困難になる。
パッチが自然に見えるのは、全体的な色が環境と一致している時です。
そこで本研究では,環境マッチング攻撃(EMA)と呼ばれる新しい手法を提案する。
我々の知る限りでは、UAVの領域における自然なパッチを最初に検討する。
EMA法は、事前訓練された安定拡散の強い事前知識を利用して、テキストガイダンスがパッチの色を制限できる対向パッチの最適化方向を導出する。
環境に合うように、パッチのコントラストと明るさを適切に調整する。
敵パッチ自体を最適化する代わりに、敵の摂動パッチを最適化してゼロに初期化する。
DroneVehicleデータセットとCarpkデータセットで実施された実験によると、我々の研究はデジタルアタック(mAP$\%$で2以上)でほぼ同じ攻撃性能を達成でき、物理的な特定のシナリオにおけるベースラインメソッドを超え、環境との可視化と色差の自然性において大きな優位性を示す。
関連論文リスト
- Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - Random Position Adversarial Patch for Vision Transformers [0.0]
本稿では,敵対パッチ(G-Patch)を生成する新しい手法を提案する。
勾配を用いてパッチを直接最適化する代わりに、GANのような構造を用いて逆パッチを生成する。
実験は、デジタルおよび物理世界のシナリオにおいて、ビジョントランスフォーマーに対する普遍的な攻撃を達成するための敵パッチの有効性を示す。
論文 参考訳(メタデータ) (2023-07-09T00:08:34Z) - AdvART: Adversarial Art for Camouflaged Object Detection Attacks [7.7889972735711925]
本稿では,自然主義的かつ不明瞭な敵パッチを生成するための新しいアプローチを提案する。
本手法は,パッチ内の画素値を直接操作することで,高い柔軟性と広い空間を実現する。
我々の攻撃は、デジタルワールドとエッジのスマートカメラでそれぞれ91.19%と72%の優れた成功率を達成する。
論文 参考訳(メタデータ) (2023-03-03T06:28:05Z) - Benchmarking Adversarial Patch Against Aerial Detection [11.591143898488312]
適応パッチに基づく新しい物理攻撃(AP-PA)フレームワークを提案する。
AP-PAは、物理力学と様々なスケールに適応する逆パッチを生成する。
航空探知作業における敵パッチの攻撃効果を評価するため, 包括的, 一貫性, 厳密なベンチマークを最初に確立した。
論文 参考訳(メタデータ) (2022-10-30T07:55:59Z) - Feasibility of Inconspicuous GAN-generated Adversarial Patches against
Object Detection [3.395452700023097]
本研究では,不明瞭なパッチを生成する既存のアプローチを評価した。
我々は、GANトレーニングプロセスにパッチ生成を組み込むことと、事前訓練したGANを使用することで、自然主義的パッチを生成する2つのアプローチを評価した。
実験の結果,事前学習したGANは,従来の対向パッチと同様の性能を維持しつつ,現実的なパッチの獲得に役立つことがわかった。
論文 参考訳(メタデータ) (2022-07-15T08:48:40Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Generating Adversarial yet Inconspicuous Patches with a Single Image [15.217367754000913]
そこで本研究では, 対角的かつ不明瞭なパッチを単一画像で生成する手法を提案する。
提案手法では,複数スケールのジェネレータと識別器を用いて,逆パッチを粗大な方法で生成する。
我々のap-proachは、ホワイトボックスとブラックボックスの両方で強力な攻撃能力を示している。
論文 参考訳(メタデータ) (2020-09-21T11:56:01Z) - Bias-based Universal Adversarial Patch Attack for Automatic Check-out [59.355948824578434]
逆の例は、ディープニューラルネットワーク(DNN)を簡単に誤解させる、知覚不能な摂動を持つ入力である。
既存の戦略は強力な一般化能力を持つ敵パッチを生成できなかった。
本稿では,強い一般化能力を持つクラス非依存の普遍的敵パッチを生成するためのバイアスベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-19T07:38:54Z) - Adversarial Training against Location-Optimized Adversarial Patches [84.96938953835249]
反対のパッチ: 明らかに見えますが 反対に作られた長方形のパッチです
まず、画像内の位置を積極的に最適化しながら、相手パッチを得るための実践的なアプローチを考案する。
CIFAR10とGTSRBでは,これらの位置最適化された対向パッチに対して対向トレーニングを適用し,ロバスト性を著しく向上した。
論文 参考訳(メタデータ) (2020-05-05T16:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。