論文の概要: MVPatch: More Vivid Patch for Adversarial Camouflaged Attacks on Object
Detectors in the Physical World
- arxiv url: http://arxiv.org/abs/2312.17431v1
- Date: Fri, 29 Dec 2023 01:52:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-01-02 14:05:26.333775
- Title: MVPatch: More Vivid Patch for Adversarial Camouflaged Attacks on Object
Detectors in the Physical World
- Title(参考訳): MVPatch:現実世界の物体探知機に対する敵のカモフラージュ攻撃のより鮮明なパッチ
- Authors: Zheng Zhou, Hongbo Zhao, Ju Liu, Qiaosheng Zhang, Guangbiao Wang,
Chunlei Wang and Wenquan Feng
- Abstract要約: 敵パッチの転送性やステルス性を改善するための新しい手法を提案する。
本手法は,アンサンブル攻撃損失関数を用いて,複数の物体検出器の物体信頼度を低下させる攻撃アルゴリズムを組み込んだものである。
提案したMVPatchアルゴリズムは,デジタルドメインと物理ドメインの両方で類似したアルゴリズムと比較して,優れた攻撃伝達性を実現する。
- 参考スコア(独自算出の注目度): 6.502478995454082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research has shown that adversarial patches can manipulate outputs
from object detection models. However, the conspicuous patterns on these
patches may draw more attention and raise suspicions among humans. Moreover,
existing works have primarily focused on the attack performance of individual
models and have neglected the generation of adversarial patches for ensemble
attacks on multiple object detection models. To tackle these concerns, we
propose a novel approach referred to as the More Vivid Patch (MVPatch), which
aims to improve the transferability and stealthiness of adversarial patches
while considering the limitations observed in prior paradigms, such as easy
identification and poor transferability. Our approach incorporates an attack
algorithm that decreases object confidence scores of multiple object detectors
by using the ensemble attack loss function, thereby enhancing the
transferability of adversarial patches. Additionally, we propose a lightweight
visual similarity measurement algorithm realized by the Compared Specified
Image Similarity (CSS) loss function, which allows for the generation of
natural and stealthy adversarial patches without the reliance on additional
generative models. Extensive experiments demonstrate that the proposed MVPatch
algorithm achieves superior attack transferability compared to similar
algorithms in both digital and physical domains, while also exhibiting a more
natural appearance. These findings emphasize the remarkable stealthiness and
transferability of the proposed MVPatch attack algorithm.
- Abstract(参考訳): 近年の研究では、敵のパッチがオブジェクト検出モデルからの出力を操作できることが示されている。
しかし、これらのパッチの顕著なパターンは、より注意を引き、人間の間で疑念を喚起する可能性がある。
さらに、既存の研究は主に個々のモデルの攻撃性能に重点を置いており、複数のオブジェクト検出モデルに対するアンサンブル攻撃のための敵パッチの生成を無視している。
これらの問題に対処するため,従来のパラダイム,例えば識別の容易さや伝達性の低さを考慮しつつ,敵パッチの転送性やステルス性を改善することを目的とした「MVPatch(More Vivid Patch)」と呼ばれる新しいアプローチを提案する。
本手法では, アンサンブル攻撃損失関数を用いて, 複数の物体検出器の物体信頼度を低減し, 対向パッチの転送性を向上させる。
さらに,画像類似度比較(CSS)損失関数によって実現される軽量な視覚類似度測定アルゴリズムを提案する。
拡張実験により,提案したMVPatchアルゴリズムは,デジタルドメインと物理ドメインの両方で類似したアルゴリズムよりも優れた攻撃伝達性を実現するとともに,より自然な外観を示すことを示した。
これらの結果は,提案したMVPatch攻撃アルゴリズムの顕著なステルス性と伝達性を強調した。
関連論文リスト
- Steering Vision-Language Pre-trained Models for Incremental Face Presentation Attack Detection [62.89126207012712]
顔提示攻撃検出(PAD)は、スプーフィング戦術やドメインと戦うために漸進的な学習を要求する。
過去のデータ保持を禁止し、リハーサルフリーラーニング(RF-IL)を必要とするプライバシー規制
論文 参考訳(メタデータ) (2025-12-22T04:30:11Z) - When Robots Obey the Patch: Universal Transferable Patch Attacks on Vision-Language-Action Models [81.7618160628979]
VLA(Vision-Language-Action)モデルは敵の攻撃に弱いが、普遍的かつ移動可能な攻撃は未発見のままである。
UPA-RFAS(Universal Patch Attack via Robust Feature, Attention, and Semantics)は、単一の物理的パッチを共有機能空間で学習する統合フレームワークである。
多様なVLAモデル、操作スイート、物理実行の実験は、UPA-RFASがモデル、タスク、視点を一貫して移行していることを示している。
論文 参考訳(メタデータ) (2025-11-26T09:16:32Z) - Improving Deepfake Detection with Reinforcement Learning-Based Adaptive Data Augmentation [60.04281435591454]
CRDA(Curriculum Reinforcement-Learning Data Augmentation)は、マルチドメインの偽造機能を段階的にマスターするための検出器を導く新しいフレームワークである。
私たちのアプローチの中心は、強化学習と因果推論を統合することです。
提案手法は検出器の一般化性を大幅に向上し,複数のクロスドメインデータセット間でSOTA法より優れている。
論文 参考訳(メタデータ) (2025-11-10T12:45:52Z) - Universal Camouflage Attack on Vision-Language Models for Autonomous Driving [67.34987318443761]
自動運転のためのビジュアル言語モデリングが、有望な研究方向として浮上している。
VLM-ADは、敵の攻撃による深刻なセキュリティ脅威に弱いままである。
VLM-ADのための最初のユニバーサルカモフラージュ攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-24T14:52:01Z) - IPG: Incremental Patch Generation for Generalized Adversarial Patch Training [1.54369283425087]
敵パッチの出現は、AIモデルの堅牢性に重大な課題をもたらす。
本稿では,既存のアプローチの最大11.1倍の効率で敵パッチを生成する手法であるインクリメンタルパッチ生成(IPG)を提案する。
IPGの有効性は、YOLOの特徴分布の可視化や逆行訓練結果を含む実験およびアブレーション研究によって実証される。
論文 参考訳(メタデータ) (2025-08-13T15:53:58Z) - RD-UIE: Relation-Driven State Space Modeling for Underwater Image Enhancement [59.364418120895]
水中画像強調(UIE)は、海洋視覚応用のための重要な前処理ステップである。
実効UIE(RD-UIE)のための新しい関係駆動型マンバフレームワークを開発した。
水中強化ベンチマークの実験では、RD-UIEは最先端のアプローチであるWMambaよりも優れていた。
論文 参考訳(メタデータ) (2025-05-02T12:21:44Z) - Breaking Barriers in Physical-World Adversarial Examples: Improving Robustness and Transferability via Robust Feature [12.28423956388208]
ディープニューラルネットワーク(DNN)は物理世界に広く応用されている。
物理世界の逆数例(PAE)は入力に摂動を導入し、モデルの誤った出力を引き起こす。
既存のPAEは、満足のいく攻撃性能と、攻撃効率とステルスネスのバランスのとれない2つの課題に直面します。
論文 参考訳(メタデータ) (2024-12-22T10:34:02Z) - Promptable Anomaly Segmentation with SAM Through Self-Perception Tuning [63.55145330447408]
Segment Anything Model (SAM) は、その顕著な一般化能力により、異常セグメンテーションタスクにおいて大きな進歩を遂げている。
SAMを直接適用する既存のメソッドは、しばしばドメインシフトの問題を見落としている。
本稿では, SAMの異常セグメンテーションに対する知覚能力を高めることを目的とした, 自己パーセプティノンチューニング(SPT)手法を提案する。
論文 参考訳(メタデータ) (2024-11-26T08:33:25Z) - Source-Free Domain Adaptive Object Detection with Semantics Compensation [54.00183496587841]
Weak-to-strong Semantics Compensation (WSCo)を導入する。
WSCoは、クラス関連セマンティクスを補う。
WSCoは一般的なプラグインとして実装することができ、既存のSFODパイプラインと容易に統合できます。
論文 参考訳(メタデータ) (2024-10-07T23:32:06Z) - MoE-FFD: Mixture of Experts for Generalized and Parameter-Efficient Face Forgery Detection [54.545054873239295]
ディープフェイクは、最近、国民の間で重大な信頼問題とセキュリティ上の懸念を提起した。
ViT法はトランスの表現性を生かし,優れた検出性能を実現する。
この研究は、汎用的でパラメータ効率のよいViTベースのアプローチであるFace Forgery Detection (MoE-FFD)のためのMixture-of-Expertsモジュールを導入する。
論文 参考訳(メタデータ) (2024-04-12T13:02:08Z) - Suppress and Rebalance: Towards Generalized Multi-Modal Face
Anti-Spoofing [26.901402236963374]
Face Anti-Spoofing (FAS) は、顔認証システムのプレゼンテーション攻撃に対する保護に不可欠である。
多くのマルチモーダルなFASアプローチが出現しているが、見当たらない攻撃や展開条件を一般化する上での課題に直面している。
論文 参考訳(メタデータ) (2024-02-29T16:06:36Z) - DOEPatch: Dynamically Optimized Ensemble Model for Adversarial Patches Generation [12.995762461474856]
本稿では, エネルギーの概念を導入し, 相手のカテゴリの総エネルギーを最小化するために, 相手のパッチ生成過程を, 相手のパッチの最適化として扱う。
逆行訓練を採用することにより,動的に最適化されたアンサンブルモデルを構築する。
我々は6つの比較実験を行い、本アルゴリズムを5つの主流物体検出モデルで検証した。
論文 参考訳(メタデータ) (2023-12-28T08:58:13Z) - Exploring the Physical World Adversarial Robustness of Vehicle Detection [13.588120545886229]
アドリアックは現実世界の検知モデルの堅牢性を損なう可能性がある。
CARLAシミュレータを用いた革新的なインスタントレベルデータ生成パイプラインを提案する。
本研究は, 逆境条件下での多種多様なモデル性能について考察した。
論文 参考訳(メタデータ) (2023-08-07T11:09:12Z) - Diffusion to Confusion: Naturalistic Adversarial Patch Generation Based
on Diffusion Model for Object Detector [18.021582628066554]
拡散モデル(DM)に基づく新しい自然主義逆パッチ生成法を提案する。
我々は、オブジェクト検出器に対するDMベースの自然主義的逆パッチ生成を初めて提案する。
論文 参考訳(メタデータ) (2023-07-16T15:22:30Z) - DAP: A Dynamic Adversarial Patch for Evading Person Detectors [8.187375378049353]
本稿ではDAP(Dynamic Adversarial Patch)を創出する新しいアプローチを提案する。
DAPは、攻撃効率と実世界の変換に対する堅牢性を最適化しながら、自然主義的な外観を維持している。
実験結果から,提案手法は最先端攻撃よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-19T11:52:42Z) - Defending From Physically-Realizable Adversarial Attacks Through
Internal Over-Activation Analysis [61.68061613161187]
Z-Maskは、敵の攻撃に対する畳み込みネットワークの堅牢性を改善するための堅牢で効果的な戦略である。
提示されたディフェンスは、入力画像中の対向対象に対応する画素を検出し、隠蔽するために、内部ネットワーク機能で実行される特定のZスコア解析に依存する。
追加の実験では、Z-Maskは防衛対応攻撃に対して堅牢であることが示された。
論文 参考訳(メタデータ) (2022-03-14T17:41:46Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。