論文の概要: MVPatch: More Vivid Patch for Adversarial Camouflaged Attacks on Object
Detectors in the Physical World
- arxiv url: http://arxiv.org/abs/2312.17431v2
- Date: Fri, 12 Jan 2024 02:09:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 23:39:56.162915
- Title: MVPatch: More Vivid Patch for Adversarial Camouflaged Attacks on Object
Detectors in the Physical World
- Title(参考訳): MVPatch:現実世界の物体探知機に対する敵のカモフラージュ攻撃のより鮮明なパッチ
- Authors: Zheng Zhou, Hongbo Zhao, Ju Liu, Qiaosheng Zhang, Liwei Geng, Shuchang
Lyu and Wenquan Feng
- Abstract要約: 我々は、Mor Vivid Patch(MVPatch)として知られる敵パッチを生成するデュアルパーセプションベースのアタックフレームワークを導入する。
本発明の枠組みは、モデル知覚劣化方法と人知覚改善方法とから構成される。
本手法では, 対象物検出器の被写体信頼度を低減し, 対向パッチの伝達性を向上させるモデル認識に基づく手法を用いる。
- 参考スコア(独自算出の注目度): 7.492058377326217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent investigations demonstrate that adversarial patches can be utilized to
manipulate the result of object detection models. However, the conspicuous
patterns on these patches may draw more attention and raise suspicions among
humans. Moreover, existing works have primarily focused on enhancing the
efficacy of attacks in the physical domain, rather than seeking to optimize
their stealth attributes and transferability potential. To address these
issues, we introduce a dual-perception-based attack framework that generates an
adversarial patch known as the More Vivid Patch (MVPatch). The framework
consists of a model-perception degradation method and a human-perception
improvement method. To derive the MVPatch, we formulate an iterative process
that simultaneously constrains the efficacy of multiple object detectors and
refines the visual correlation between the generated adversarial patch and a
realistic image. Our method employs a model-perception-based approach that
reduces the object confidence scores of several object detectors to boost the
transferability of adversarial patches. Further, within the
human-perception-based framework, we put forward a lightweight technique for
visual similarity measurement that facilitates the development of inconspicuous
and natural adversarial patches and eliminates the reliance on additional
generative models. Additionally, we introduce the naturalness score and
transferability score as metrics for an unbiased assessment of various
adversarial patches' natural appearance and transferability capacity. Extensive
experiments demonstrate that the proposed MVPatch algorithm achieves superior
attack transferability compared to similar algorithms in both digital and
physical domains while also exhibiting a more natural appearance. These
findings emphasize the remarkable stealthiness and transferability of the
proposed MVPatch attack algorithm.
- Abstract(参考訳): 近年の研究では、対向パッチを用いて物体検出モデルの結果を操作できることが示されている。
しかし、これらのパッチの顕著なパターンは、より注意を引き、人間の間で疑念を喚起する可能性がある。
さらに、既存の研究は、ステルス特性と転送可能性の可能性を最適化するよりも、物理領域における攻撃の有効性を高めることに重点を置いている。
これらの問題に対処するために、Mor Vivid Patch(MVPatch)として知られる敵パッチを生成するデュアルパーセプションベースのアタックフレームワークを導入する。
この枠組みは、モデル知覚劣化法と、人間知覚改善法からなる。
MVPatchを導出するために、複数の物体検出器の有効性を同時に制限し、生成した対向パッチと現実像との視覚的相関を洗練する反復過程を定式化する。
本手法では, 対象物検出器の被写体信頼度を低減し, 対向パッチの伝達性を高めるモデル認識に基づく手法を用いる。
さらに,人間の知覚に基づく枠組みでは,視覚的類似度測定のための軽量な手法が提案され,不明瞭で自然な対人パッチの開発が容易になり,新たな生成モデルへの依存がなくなる。
さらに, 自然度スコアと移動可能性スコアを, 種々の相手パッチの自然な外見と移動可能性能力の偏りのない評価指標として導入する。
拡張実験により,提案したMVPatchアルゴリズムは,デジタルドメインと物理ドメインの両方で類似したアルゴリズムよりも優れた攻撃伝達性を実現するとともに,より自然な外観を示すことを示した。
これらの結果は,提案したMVPatch攻撃アルゴリズムの顕著なステルス性と伝達性を強調した。
関連論文リスト
- DOEPatch: Dynamically Optimized Ensemble Model for Adversarial Patches
Generation [12.995762461474856]
本稿では, エネルギーの概念を導入し, 相手のカテゴリの総エネルギーを最小化するために, 相手のパッチ生成過程を, 相手のパッチの最適化として扱う。
逆行訓練を採用することにより,動的に最適化されたアンサンブルモデルを構築する。
我々は6つの比較実験を行い、本アルゴリズムを5つの主流物体検出モデルで検証した。
論文 参考訳(メタデータ) (2023-12-28T08:58:13Z) - Diffusion to Confusion: Naturalistic Adversarial Patch Generation Based
on Diffusion Model for Object Detector [18.021582628066554]
拡散モデル(DM)に基づく新しい自然主義逆パッチ生成法を提案する。
我々は、オブジェクト検出器に対するDMベースの自然主義的逆パッチ生成を初めて提案する。
論文 参考訳(メタデータ) (2023-07-16T15:22:30Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Benchmarking Adversarial Patch Against Aerial Detection [11.591143898488312]
適応パッチに基づく新しい物理攻撃(AP-PA)フレームワークを提案する。
AP-PAは、物理力学と様々なスケールに適応する逆パッチを生成する。
航空探知作業における敵パッチの攻撃効果を評価するため, 包括的, 一貫性, 厳密なベンチマークを最初に確立した。
論文 参考訳(メタデータ) (2022-10-30T07:55:59Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - Transferable Physical Attack against Object Detection with Separable
Attention [14.805375472459728]
ディープラーニングモデルは、敵のサンプルに弱いことが証明されているため、トランスファー可能な敵攻撃は常に注目されている。
本稿では,物理的に実現可能な逆カモフラージュを生成する新しい手法を提案し,検出モデルに対するトランスファー可能な攻撃を実現する。
論文 参考訳(メタデータ) (2022-05-19T14:34:55Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Generating Adversarial yet Inconspicuous Patches with a Single Image [15.217367754000913]
そこで本研究では, 対角的かつ不明瞭なパッチを単一画像で生成する手法を提案する。
提案手法では,複数スケールのジェネレータと識別器を用いて,逆パッチを粗大な方法で生成する。
我々のap-proachは、ホワイトボックスとブラックボックスの両方で強力な攻撃能力を示している。
論文 参考訳(メタデータ) (2020-09-21T11:56:01Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。