論文の概要: MVPatch: More Vivid Patch for Adversarial Camouflaged Attacks on Object
Detectors in the Physical World
- arxiv url: http://arxiv.org/abs/2312.17431v2
- Date: Fri, 12 Jan 2024 02:09:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 23:39:56.162915
- Title: MVPatch: More Vivid Patch for Adversarial Camouflaged Attacks on Object
Detectors in the Physical World
- Title(参考訳): MVPatch:現実世界の物体探知機に対する敵のカモフラージュ攻撃のより鮮明なパッチ
- Authors: Zheng Zhou, Hongbo Zhao, Ju Liu, Qiaosheng Zhang, Liwei Geng, Shuchang
Lyu and Wenquan Feng
- Abstract要約: 我々は、Mor Vivid Patch(MVPatch)として知られる敵パッチを生成するデュアルパーセプションベースのアタックフレームワークを導入する。
本発明の枠組みは、モデル知覚劣化方法と人知覚改善方法とから構成される。
本手法では, 対象物検出器の被写体信頼度を低減し, 対向パッチの伝達性を向上させるモデル認識に基づく手法を用いる。
- 参考スコア(独自算出の注目度): 7.492058377326217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent investigations demonstrate that adversarial patches can be utilized to
manipulate the result of object detection models. However, the conspicuous
patterns on these patches may draw more attention and raise suspicions among
humans. Moreover, existing works have primarily focused on enhancing the
efficacy of attacks in the physical domain, rather than seeking to optimize
their stealth attributes and transferability potential. To address these
issues, we introduce a dual-perception-based attack framework that generates an
adversarial patch known as the More Vivid Patch (MVPatch). The framework
consists of a model-perception degradation method and a human-perception
improvement method. To derive the MVPatch, we formulate an iterative process
that simultaneously constrains the efficacy of multiple object detectors and
refines the visual correlation between the generated adversarial patch and a
realistic image. Our method employs a model-perception-based approach that
reduces the object confidence scores of several object detectors to boost the
transferability of adversarial patches. Further, within the
human-perception-based framework, we put forward a lightweight technique for
visual similarity measurement that facilitates the development of inconspicuous
and natural adversarial patches and eliminates the reliance on additional
generative models. Additionally, we introduce the naturalness score and
transferability score as metrics for an unbiased assessment of various
adversarial patches' natural appearance and transferability capacity. Extensive
experiments demonstrate that the proposed MVPatch algorithm achieves superior
attack transferability compared to similar algorithms in both digital and
physical domains while also exhibiting a more natural appearance. These
findings emphasize the remarkable stealthiness and transferability of the
proposed MVPatch attack algorithm.
- Abstract(参考訳): 近年の研究では、対向パッチを用いて物体検出モデルの結果を操作できることが示されている。
しかし、これらのパッチの顕著なパターンは、より注意を引き、人間の間で疑念を喚起する可能性がある。
さらに、既存の研究は、ステルス特性と転送可能性の可能性を最適化するよりも、物理領域における攻撃の有効性を高めることに重点を置いている。
これらの問題に対処するために、Mor Vivid Patch(MVPatch)として知られる敵パッチを生成するデュアルパーセプションベースのアタックフレームワークを導入する。
この枠組みは、モデル知覚劣化法と、人間知覚改善法からなる。
MVPatchを導出するために、複数の物体検出器の有効性を同時に制限し、生成した対向パッチと現実像との視覚的相関を洗練する反復過程を定式化する。
本手法では, 対象物検出器の被写体信頼度を低減し, 対向パッチの伝達性を高めるモデル認識に基づく手法を用いる。
さらに,人間の知覚に基づく枠組みでは,視覚的類似度測定のための軽量な手法が提案され,不明瞭で自然な対人パッチの開発が容易になり,新たな生成モデルへの依存がなくなる。
さらに, 自然度スコアと移動可能性スコアを, 種々の相手パッチの自然な外見と移動可能性能力の偏りのない評価指標として導入する。
拡張実験により,提案したMVPatchアルゴリズムは,デジタルドメインと物理ドメインの両方で類似したアルゴリズムよりも優れた攻撃伝達性を実現するとともに,より自然な外観を示すことを示した。
これらの結果は,提案したMVPatch攻撃アルゴリズムの顕著なステルス性と伝達性を強調した。
関連論文リスト
- Promptable Anomaly Segmentation with SAM Through Self-Perception Tuning [63.55145330447408]
Segment Anything Model (SAM) は、その顕著な一般化能力により、異常セグメンテーションタスクにおいて大きな進歩を遂げている。
SAMを直接適用する既存のメソッドは、しばしばドメインシフトの問題を見落としている。
本稿では, SAMの異常セグメンテーションに対する知覚能力を高めることを目的とした, 自己パーセプティノンチューニング(SPT)手法を提案する。
論文 参考訳(メタデータ) (2024-11-26T08:33:25Z) - MoE-FFD: Mixture of Experts for Generalized and Parameter-Efficient Face Forgery Detection [54.545054873239295]
ディープフェイクは、最近、国民の間で重大な信頼問題とセキュリティ上の懸念を提起した。
ViT法はトランスの表現性を生かし,優れた検出性能を実現する。
この研究は、汎用的でパラメータ効率のよいViTベースのアプローチであるFace Forgery Detection (MoE-FFD)のためのMixture-of-Expertsモジュールを導入する。
論文 参考訳(メタデータ) (2024-04-12T13:02:08Z) - Suppress and Rebalance: Towards Generalized Multi-Modal Face
Anti-Spoofing [26.901402236963374]
Face Anti-Spoofing (FAS) は、顔認証システムのプレゼンテーション攻撃に対する保護に不可欠である。
多くのマルチモーダルなFASアプローチが出現しているが、見当たらない攻撃や展開条件を一般化する上での課題に直面している。
論文 参考訳(メタデータ) (2024-02-29T16:06:36Z) - DOEPatch: Dynamically Optimized Ensemble Model for Adversarial Patches Generation [12.995762461474856]
本稿では, エネルギーの概念を導入し, 相手のカテゴリの総エネルギーを最小化するために, 相手のパッチ生成過程を, 相手のパッチの最適化として扱う。
逆行訓練を採用することにより,動的に最適化されたアンサンブルモデルを構築する。
我々は6つの比較実験を行い、本アルゴリズムを5つの主流物体検出モデルで検証した。
論文 参考訳(メタデータ) (2023-12-28T08:58:13Z) - Exploring the Physical World Adversarial Robustness of Vehicle Detection [13.588120545886229]
アドリアックは現実世界の検知モデルの堅牢性を損なう可能性がある。
CARLAシミュレータを用いた革新的なインスタントレベルデータ生成パイプラインを提案する。
本研究は, 逆境条件下での多種多様なモデル性能について考察した。
論文 参考訳(メタデータ) (2023-08-07T11:09:12Z) - Diffusion to Confusion: Naturalistic Adversarial Patch Generation Based
on Diffusion Model for Object Detector [18.021582628066554]
拡散モデル(DM)に基づく新しい自然主義逆パッチ生成法を提案する。
我々は、オブジェクト検出器に対するDMベースの自然主義的逆パッチ生成を初めて提案する。
論文 参考訳(メタデータ) (2023-07-16T15:22:30Z) - DAP: A Dynamic Adversarial Patch for Evading Person Detectors [8.187375378049353]
本稿ではDAP(Dynamic Adversarial Patch)を創出する新しいアプローチを提案する。
DAPは、攻撃効率と実世界の変換に対する堅牢性を最適化しながら、自然主義的な外観を維持している。
実験結果から,提案手法は最先端攻撃よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-19T11:52:42Z) - Defending From Physically-Realizable Adversarial Attacks Through
Internal Over-Activation Analysis [61.68061613161187]
Z-Maskは、敵の攻撃に対する畳み込みネットワークの堅牢性を改善するための堅牢で効果的な戦略である。
提示されたディフェンスは、入力画像中の対向対象に対応する画素を検出し、隠蔽するために、内部ネットワーク機能で実行される特定のZスコア解析に依存する。
追加の実験では、Z-Maskは防衛対応攻撃に対して堅牢であることが示された。
論文 参考訳(メタデータ) (2022-03-14T17:41:46Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。