論文の概要: EvoSeed: Unveiling the Threat on Deep Neural Networks with Real-World
Illusions
- arxiv url: http://arxiv.org/abs/2402.04699v1
- Date: Wed, 7 Feb 2024 09:39:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 16:05:21.699810
- Title: EvoSeed: Unveiling the Threat on Deep Neural Networks with Real-World
Illusions
- Title(参考訳): evoseed: 現実世界の錯覚でディープニューラルネットワークの脅威を露呈
- Authors: Shashank Kotyan, PoYuan Mao, Danilo Vasconcellos Vargas
- Abstract要約: EvoSeedは進化的戦略に基づく新しいアルゴリズムフレームワークで、自然な敵対的なサンプルを生成する。
提案手法は, 進化的アルゴリズムを用いて, 敵検体の品質向上を図っている。
- 参考スコア(独自算出の注目度): 8.701566919381225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks are exploited using natural adversarial samples, which
have no impact on human perception but are misclassified. Current approaches
often rely on the white-box nature of deep neural networks to generate these
adversarial samples or alter the distribution of adversarial samples compared
to training distribution. To alleviate the limitations of current approaches,
we propose EvoSeed, a novel evolutionary strategy-based search algorithmic
framework to generate natural adversarial samples. Our EvoSeed framework uses
auxiliary Diffusion and Classifier models to operate in a model-agnostic
black-box setting. We employ CMA-ES to optimize the search for an adversarial
seed vector, which, when processed by the Conditional Diffusion Model, results
in an unrestricted natural adversarial sample misclassified by the Classifier
Model. Experiments show that generated adversarial images are of high image
quality and are transferable to different classifiers. Our approach
demonstrates promise in enhancing the quality of adversarial samples using
evolutionary algorithms. We hope our research opens new avenues to enhance the
robustness of deep neural networks in real-world scenarios. Project Website can
be accessed at \url{https://shashankkotyan.github.io/EvoSeed}.
- Abstract(参考訳): ディープニューラルネットワークは、人間の知覚に影響を与えないが、誤分類されている自然の敵対的なサンプルを用いて利用される。
現在のアプローチでは、ディープニューラルネットワークのホワイトボックスの性質を利用して、これらの逆サンプルを生成したり、逆サンプルの分布をトレーニング分布と比較したりしていることが多い。
現状のアプローチの限界を緩和するため,我々は,新しい進化戦略に基づく探索アルゴリズムフレームワークであるevoseedを提案する。
提案フレームワークは,補助拡散モデルと分類モデルを用いて,モデルに依存しないブラックボックス環境で動作する。
我々は,CMA-ESを用いて,条件付き拡散モデルによって処理された逆数ベクトルの探索を最適化し,非制限の自然逆数サンプルを分類モデルで誤分類する。
実験により、生成した逆向き画像は画像品質が高く、異なる分類器に転送可能であることが示された。
提案手法は, 進化的アルゴリズムを用いて, 敵検体の品質向上を図っている。
われわれの研究が、現実世界のシナリオにおけるディープニューラルネットワークの堅牢性を高める新しい道を開くことを願っている。
プロジェクトwebサイトは \url{https://shashankkotyan.github.io/evoseed} でアクセスできる。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - FACTUAL: A Novel Framework for Contrastive Learning Based Robust SAR Image Classification [10.911464455072391]
FACTUALは、逆行訓練と堅牢なSAR分類のためのコントラストラーニングフレームワークである。
本モデルでは, 洗浄試料の99.7%, 摂動試料の89.6%の精度が得られた。
論文 参考訳(メタデータ) (2024-04-04T06:20:22Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Adversarial Purification of Information Masking [8.253834429336656]
アドリアックは、ニューラルネットワークを騙すイメージに対して、極小で知覚不能な摂動を発生させる。
これらに対抗して、敵の入力サンプルをクリーンな出力画像に変換し、敵の攻撃を防ごうとする。
本稿では,情報マスク浄化 (IMPure) と呼ばれる新しい対向的浄化手法を提案し,対向的摂動を広範囲に排除する。
論文 参考訳(メタデータ) (2023-11-26T15:50:19Z) - Diffusion-Based Adversarial Sample Generation for Improved Stealthiness
and Controllability [62.105715985563656]
そこで本研究では,現実的な対向サンプルを生成するための拡散型射影勾配 Descent (Diff-PGD) という新しいフレームワークを提案する。
我々のフレームワークは、デジタルアタック、物理世界アタック、スタイルベースのアタックなど、特定のタスクに簡単にカスタマイズできる。
論文 参考訳(メタデータ) (2023-05-25T21:51:23Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Generating Out of Distribution Adversarial Attack using Latent Space
Poisoning [5.1314136039587925]
本稿では,実際の画像が破損しない敵の例を生成する新しいメカニズムを提案する。
潜在空間表現は、画像の固有構造を改ざんするために利用される。
勾配ベースの攻撃とは対照的に、潜時空間中毒は、トレーニングデータセットの独立かつ同一分布をモデル化する分類器の傾きを利用する。
論文 参考訳(メタデータ) (2020-12-09T13:05:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。