論文の概要: Natural Adversarial Patch Generation Method Based on Latent Diffusion
Model
- arxiv url: http://arxiv.org/abs/2312.16401v1
- Date: Wed, 27 Dec 2023 04:09:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 19:39:52.230609
- Title: Natural Adversarial Patch Generation Method Based on Latent Diffusion
Model
- Title(参考訳): 潜在拡散モデルに基づく自然敵パッチ生成法
- Authors: Xianyi Chen and Fazhan Liu and Dong Jiang and Kai Yan
- Abstract要約: 本稿では,LDP (Latent Diffusion Patch) と呼ばれる新しい対向パッチ法を提案する。
これは、拡散モデルの強力な自然能力によってパッチや画像を洗練し、人間の視覚システムに受け入れられる。
デジタル世界と物理世界の両方の実験結果から、LDPは効果的な攻撃能力を維持しつつも、視覚的主観性スコア87.3%を達成していることが示された。
- 参考スコア(独自算出の注目度): 2.5879126618627204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, some research show that deep neural networks are vulnerable to the
adversarial attacks, the well-trainned samples or patches could be used to
trick the neural network detector or human visual perception. However, these
adversarial patches, with their conspicuous and unusual patterns, lack
camouflage and can easily raise suspicion in the real world. To solve this
problem, this paper proposed a novel adversarial patch method called the Latent
Diffusion Patch (LDP), in which, a pretrained encoder is first designed to
compress the natural images into a feature space with key characteristics. Then
trains the diffusion model using the above feature space. Finally, explore the
latent space of the pretrained diffusion model using the image denoising
technology. It polishes the patches and images through the powerful natural
abilities of diffusion models, making them more acceptable to the human visual
system. Experimental results, both digital and physical worlds, show that LDPs
achieve a visual subjectivity score of 87.3%, while still maintaining effective
attack capabilities.
- Abstract(参考訳): 近年の研究では、ディープニューラルネットワークは敵の攻撃に対して脆弱であることを示しており、よく訓練されたサンプルやパッチは、ニューラルネットワーク検出器や人間の視覚知覚を騙すのに使うことができる。
しかし、これらの敵対的なパッチは目立ち、異常なパターンを持ち、カモフラージュがなく、現実世界で簡単に疑念を抱かせることができる。
この問題を解決するために,本研究では,Latent Diffusion Patch (LDP, Latent Diffusion Patch) と呼ばれる新たな逆パッチ手法を提案する。
次に、上記の特徴空間を用いて拡散モデルを訓練する。
最後に,画像復調技術を用いて,事前学習拡散モデルの潜時空間を探索する。
拡散モデルの強力な自然能力によってパッチやイメージを磨き、より人間の視覚系に受け入れられるようにします。
デジタル世界と物理世界の両方で実験の結果、LCDは効果的な攻撃能力を維持しつつも、視覚的主観性スコア87.3%を達成した。
関連論文リスト
- DiffPAD: Denoising Diffusion-based Adversarial Patch Decontamination [5.7254228484416325]
DiffPADは、拡散モデルのパワーを利用した新しいフレームワークである。
我々は,DiffPADがパッチ攻撃に対する最先端の敵対的堅牢性を達成し,パッチ残余を伴わない自然像の回復に優れることを示す。
論文 参考訳(メタデータ) (2024-10-31T15:09:36Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - DPMesh: Exploiting Diffusion Prior for Occluded Human Mesh Recovery [71.6345505427213]
DPMeshは、人間のメッシュリカバリを排除した革新的なフレームワークである。
これは、事前訓練されたテキスト・ツー・イメージ拡散モデルに埋め込まれた対象構造と空間的関係について、より深い拡散に乗じる。
論文 参考訳(メタデータ) (2024-04-01T18:59:13Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Intriguing Properties of Diffusion Models: An Empirical Study of the Natural Attack Capability in Text-to-Image Generative Models [22.675911411028633]
最先端のディープニューラルネットワーク(DNN)モデルでは,頑健な機能を意図的に取り除いても,予測が保たれていることが分かっています。
NDD攻撃は、低コスト、モデル非依存、移動可能な敵攻撃を発生させる能力が著しく高い。
論文 参考訳(メタデータ) (2023-08-30T01:21:11Z) - Diffusion to Confusion: Naturalistic Adversarial Patch Generation Based
on Diffusion Model for Object Detector [18.021582628066554]
拡散モデル(DM)に基づく新しい自然主義逆パッチ生成法を提案する。
我々は、オブジェクト検出器に対するDMベースの自然主義的逆パッチ生成を初めて提案する。
論文 参考訳(メタデータ) (2023-07-16T15:22:30Z) - Deceptive-NeRF/3DGS: Diffusion-Generated Pseudo-Observations for High-Quality Sparse-View Reconstruction [60.52716381465063]
我々は,限られた入力画像のみを用いて,スパースビュー再構成を改善するために,Deceptive-NeRF/3DGSを導入した。
具体的には,少数視点再構成によるノイズ画像から高品質な擬似観測へ変換する,偽拡散モデルを提案する。
本システムでは,拡散生成擬似観測をトレーニング画像集合に徐々に組み込んで,スパース入力観測を5倍から10倍に高めている。
論文 参考訳(メタデータ) (2023-05-24T14:00:32Z) - Training Diffusion Models with Reinforcement Learning [82.29328477109826]
拡散モデルは、ログのような目的に近似して訓練される。
本稿では,下流目的のための拡散モデルを直接最適化するための強化学習手法について検討する。
本稿では,多段階決定問題としてデノベーションを行うことによって,ポリシー勾配アルゴリズムのクラスを実現する方法について述べる。
論文 参考訳(メタデータ) (2023-05-22T17:57:41Z) - SinDiffusion: Learning a Diffusion Model from a Single Natural Image [159.4285444680301]
SinDiffusionは1つの自然な画像からパッチの内部分布を捉えるためにデノナイズ拡散モデルを利用する。
SinDiffusionは、2つのコア設計に基づいている。まず、SinDiffusionは、段階的にスケールが成長する複数のモデルではなく、1つのスケールで1つのモデルで訓練されている。
第2に,拡散ネットワークのパッチレベルの受容領域は,画像のパッチ統計を捉える上で重要かつ効果的であることを示す。
論文 参考訳(メタデータ) (2022-11-22T18:00:03Z) - Generating Adversarial yet Inconspicuous Patches with a Single Image [15.217367754000913]
そこで本研究では, 対角的かつ不明瞭なパッチを単一画像で生成する手法を提案する。
提案手法では,複数スケールのジェネレータと識別器を用いて,逆パッチを粗大な方法で生成する。
我々のap-proachは、ホワイトボックスとブラックボックスの両方で強力な攻撃能力を示している。
論文 参考訳(メタデータ) (2020-09-21T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。