論文の概要: AdvART: Adversarial Art for Camouflaged Object Detection Attacks
- arxiv url: http://arxiv.org/abs/2303.01734v2
- Date: Fri, 9 Feb 2024 08:57:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 21:19:56.348690
- Title: AdvART: Adversarial Art for Camouflaged Object Detection Attacks
- Title(参考訳): AdvART:カモフラージュされた物体検出攻撃の対抗技
- Authors: Amira Guesmi, Ioan Marius Bilasco, Muhammad Shafique, and Ihsen
Alouani
- Abstract要約: 本稿では,自然主義的かつ不明瞭な敵パッチを生成するための新しいアプローチを提案する。
本手法は,パッチ内の画素値を直接操作することで,高い柔軟性と広い空間を実現する。
我々の攻撃は、デジタルワールドとエッジのスマートカメラでそれぞれ91.19%と72%の優れた成功率を達成する。
- 参考スコア(独自算出の注目度): 7.7889972735711925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physical adversarial attacks pose a significant practical threat as it
deceives deep learning systems operating in the real world by producing
prominent and maliciously designed physical perturbations. Emphasizing the
evaluation of naturalness is crucial in such attacks, as humans can readily
detect and eliminate unnatural manipulations. To overcome this limitation,
recent work has proposed leveraging generative adversarial networks (GANs) to
generate naturalistic patches, which may not catch human's attention. However,
these approaches suffer from a limited latent space which leads to an
inevitable trade-off between naturalness and attack efficiency. In this paper,
we propose a novel approach to generate naturalistic and inconspicuous
adversarial patches. Specifically, we redefine the optimization problem by
introducing an additional loss term to the cost function. This term works as a
semantic constraint to ensure that the generated camouflage pattern holds
semantic meaning rather than arbitrary patterns. The additional term leverages
similarity metrics to construct a similarity loss that we optimize within the
global objective function. Our technique is based on directly manipulating the
pixel values in the patch, which gives higher flexibility and larger space
compared to the GAN-based techniques that are based on indirectly optimizing
the patch by modifying the latent vector. Our attack achieves superior success
rate of up to 91.19\% and 72\%, respectively, in the digital world and when
deployed in smart cameras at the edge compared to the GAN-based technique.
- Abstract(参考訳): 物理的な敵の攻撃は、現実世界で動作しているディープラーニングシステムを欺き、目立った、悪意ある物理的摂動を発生させることで、現実的な脅威となる。
自然性を評価することは、人間が容易に不自然な操作を検出し、排除できるため、このような攻撃には不可欠である。
この制限を克服するために、最近の研究は、自然主義的なパッチを生成するためにジェネレーティブ・リバーサリー・ネットワーク(gans)を活用することを提案している。
しかし、これらのアプローチは、自然性と攻撃効率の間の必然的なトレードオフをもたらす限定的な潜在空間に苦しむ。
本稿では,自然主義的かつ目立たない敵意パッチを生成する新しい手法を提案する。
具体的には,コスト関数に損失項を追加することで最適化問題を再定義する。
この用語は、生成されたカモフラージュパターンが任意のパターンではなく意味を持つようにセマンティック制約として機能する。
追加の用語は、グローバル目的関数内で最適化された類似性損失を構築するために類似度メトリクスを利用する。
本手法は, パッチ内の画素値を直接操作することで, 遅延ベクトルを変更してパッチを間接最適化するGANベースの手法と比較して, 高い柔軟性と広い空間を実現する。
我々の攻撃は、デジタル世界でそれぞれ91.19\%と72\%の優れた成功率を達成し、GANベースの技術と比較してエッジのスマートカメラに展開する。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Environmental Matching Attack Against Unmanned Aerial Vehicles Object Detection [37.77615360932841]
無人航空機の物体検出技術はディープニューラルネットワーク(DNN)に依存している
UAV領域の既存のアルゴリズムによって生成された敵パッチは、敵パッチの自然性にはほとんど注意を払わない。
本研究では,環境マッチング攻撃(EMA)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-13T09:56:57Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - DAP: A Dynamic Adversarial Patch for Evading Person Detectors [8.187375378049353]
本稿ではDAP(Dynamic Adversarial Patch)を創出する新しいアプローチを提案する。
DAPは、攻撃効率と実世界の変換に対する堅牢性を最適化しながら、自然主義的な外観を維持している。
実験結果から,提案手法は最先端攻撃よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-19T11:52:42Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。