論文の概要: Diffusion to Confusion: Naturalistic Adversarial Patch Generation Based
on Diffusion Model for Object Detector
- arxiv url: http://arxiv.org/abs/2307.08076v1
- Date: Sun, 16 Jul 2023 15:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 15:53:50.047757
- Title: Diffusion to Confusion: Naturalistic Adversarial Patch Generation Based
on Diffusion Model for Object Detector
- Title(参考訳): 拡散と拡散:対象検出器の拡散モデルに基づく自然主義的逆パッチ生成
- Authors: Shuo-Yen Lin, Ernie Chu, Che-Hsien Lin, Jun-Cheng Chen, Jia-Ching Wang
- Abstract要約: 拡散モデル(DM)に基づく新しい自然主義逆パッチ生成法を提案する。
我々は、オブジェクト検出器に対するDMベースの自然主義的逆パッチ生成を初めて提案する。
- 参考スコア(独自算出の注目度): 18.021582628066554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many physical adversarial patch generation methods are widely proposed to
protect personal privacy from malicious monitoring using object detectors.
However, they usually fail to generate satisfactory patch images in terms of
both stealthiness and attack performance without making huge efforts on careful
hyperparameter tuning. To address this issue, we propose a novel naturalistic
adversarial patch generation method based on the diffusion models (DM). Through
sampling the optimal image from the DM model pretrained upon natural images, it
allows us to stably craft high-quality and naturalistic physical adversarial
patches to humans without suffering from serious mode collapse problems as
other deep generative models. To the best of our knowledge, we are the first to
propose DM-based naturalistic adversarial patch generation for object
detectors. With extensive quantitative, qualitative, and subjective
experiments, the results demonstrate the effectiveness of the proposed approach
to generate better-quality and more naturalistic adversarial patches while
achieving acceptable attack performance than other state-of-the-art patch
generation methods. We also show various generation trade-offs under different
conditions.
- Abstract(参考訳): オブジェクト検出器を用いた悪意のある監視から個人のプライバシーを保護するために、多くの物理的敵パッチ生成法が広く提案されている。
しかし、通常は、注意深いハイパーパラメータチューニングを行うことなく、ステルスネスと攻撃性能の両方の観点から満足のいくパッチ画像を生成することができない。
この問題に対処するため,拡散モデル(DM)に基づく新たな自然主義的逆パッチ生成手法を提案する。
自然画像に事前学習したdmモデルから最適な画像をサンプリングすることで、他の深層生成モデルと同様に深刻なモード崩壊問題に苦しむことなく、人間に高品質で自然主義的な物理的敵意パッチを安定的に作ることができる。
我々の知る限りでは、オブジェクト検出器のためのDMベースの自然主義的逆パッチ生成を最初に提案する。
定量的,質的,主観的な実験により,提案手法の有効性を示すとともに,他の最先端のパッチ生成手法よりも許容可能な攻撃性能を実現する。
また、異なる条件下で様々な世代のトレードオフを示す。
関連論文リスト
- MVPatch: More Vivid Patch for Adversarial Camouflaged Attacks on Object
Detectors in the Physical World [7.492058377326217]
我々は、Mor Vivid Patch(MVPatch)として知られる敵パッチを生成するデュアルパーセプションベースのアタックフレームワークを導入する。
本発明の枠組みは、モデル知覚劣化方法と人知覚改善方法とから構成される。
本手法では, 対象物検出器の被写体信頼度を低減し, 対向パッチの伝達性を向上させるモデル認識に基づく手法を用いる。
論文 参考訳(メタデータ) (2023-12-29T01:52:22Z) - DOEPatch: Dynamically Optimized Ensemble Model for Adversarial Patches
Generation [12.995762461474856]
本稿では, エネルギーの概念を導入し, 相手のカテゴリの総エネルギーを最小化するために, 相手のパッチ生成過程を, 相手のパッチの最適化として扱う。
逆行訓練を採用することにより,動的に最適化されたアンサンブルモデルを構築する。
我々は6つの比較実験を行い、本アルゴリズムを5つの主流物体検出モデルで検証した。
論文 参考訳(メタデータ) (2023-12-28T08:58:13Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - CamoDiffusion: Camouflaged Object Detection via Conditional Diffusion
Models [72.93652777646233]
カモフラーゲ型物体検出(COD)は、カモフラーゲ型物体とその周囲の類似性が高いため、コンピュータビジョンにおいて難しい課題である。
本研究では,CODを拡散モデルを利用した条件付きマスク生成タスクとして扱う新しいパラダイムを提案する。
カモ拡散(CamoDiffusion)と呼ばれる本手法では,拡散モデルのデノナイズプロセスを用いてマスクの雑音を反復的に低減する。
論文 参考訳(メタデータ) (2023-05-29T07:49:44Z) - Diffusion-Based Adversarial Sample Generation for Improved Stealthiness
and Controllability [62.105715985563656]
そこで本研究では,現実的な対向サンプルを生成するための拡散型射影勾配 Descent (Diff-PGD) という新しいフレームワークを提案する。
我々のフレームワークは、デジタルアタック、物理世界アタック、スタイルベースのアタックなど、特定のタスクに簡単にカスタマイズできる。
論文 参考訳(メタデータ) (2023-05-25T21:51:23Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Feasibility of Inconspicuous GAN-generated Adversarial Patches against
Object Detection [3.395452700023097]
本研究では,不明瞭なパッチを生成する既存のアプローチを評価した。
我々は、GANトレーニングプロセスにパッチ生成を組み込むことと、事前訓練したGANを使用することで、自然主義的パッチを生成する2つのアプローチを評価した。
実験の結果,事前学習したGANは,従来の対向パッチと同様の性能を維持しつつ,現実的なパッチの獲得に役立つことがわかった。
論文 参考訳(メタデータ) (2022-07-15T08:48:40Z) - MIRST-DM: Multi-Instance RST with Drop-Max Layer for Robust
Classification of Breast Cancer [62.997667081978825]
MIRST-DMと呼ばれるドロップマックス層を用いたマルチインスタンスRTTを提案し、小さなデータセット上でよりスムーズな決定境界を学習する。
提案手法は1,190画像の小さな乳房超音波データセットを用いて検証した。
論文 参考訳(メタデータ) (2022-05-02T20:25:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。