論文の概要: Latent Magic: An Investigation into Adversarial Examples Crafted in the
Semantic Latent Space
- arxiv url: http://arxiv.org/abs/2305.12906v1
- Date: Mon, 22 May 2023 10:39:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 16:39:44.988312
- Title: Latent Magic: An Investigation into Adversarial Examples Crafted in the
Semantic Latent Space
- Title(参考訳): latent magic: 意味的潜在空間で構築された敵対的例の検討
- Authors: BoYang Zheng
- Abstract要約: Deep Neural Networks(DNN)に対するアドリラルアタック(Adrial attack)は、"citegoodfellow"がDNNの脆弱性を目標にして以来、残酷なトピックとなっている。
以前の作業のほとんどは、$l_p$ノルム制約に従って、ピクセル空間の逆例を作成する。
本稿では、なぜ潜伏空間における敵の例を作れば、等しく効率的かつ重要なのかを直観的に説明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks against Deep Neural Networks(DNN) have been a crutial
topic ever since \cite{goodfellow} purposed the vulnerability of DNNs. However,
most prior works craft adversarial examples in the pixel space, following the
$l_p$ norm constraint. In this paper, we give intuitional explain about why
crafting adversarial examples in the latent space is equally efficient and
important. We purpose a framework for crafting adversarial examples in semantic
latent space based on an pre-trained Variational Auto Encoder from state-of-art
Stable Diffusion Model\cite{SDM}. We also show that adversarial examples
crafted in the latent space can also achieve a high level of fool rate.
However, examples crafted from latent space are often hard to evaluated, as
they doesn't follow a certain $l_p$ norm constraint, which is a big challenge
for existing researches. To efficiently and accurately evaluate the adversarial
examples crafted in the latent space, we purpose \textbf{a novel evaluation
matric} based on SSIM\cite{SSIM} loss and fool rate.Additionally, we explain
why FID\cite{FID} is not suitable for measuring such adversarial examples. To
the best of our knowledge, it's the first evaluation metrics that is
specifically designed to evaluate the quality of a adversarial attack. We also
investigate the transferability of adversarial examples crafted in the latent
space and show that they have superiority over adversarial examples crafted in
the pixel space.
- Abstract(参考訳): Deep Neural Networks(DNN)に対する敵対的な攻撃は、 \cite{goodfellow}がDNNの脆弱性を意図して以来、これまでも残酷なトピックだった。
しかし、ほとんどの先行作品は、l_p$ノルム制約に従って、ピクセル空間で逆の例を作る。
本稿では,潜在空間における逆例作成が等しく効率的かつ重要である理由を直観的に説明する。
我々は,最先端安定拡散モデルであるcite{sdm} から事前学習した変分オートエンコーダに基づいて,意味的潜在空間における逆例を作成するためのフレームワークを考案する。
また、潜在空間で作られた敵の例は、高いレベルの愚かさを達成できることを示す。
しかし、潜在空間から作られた例は、特定の $l_p$ のノルム制約に従わないため、しばしば評価が難しい。
本研究の目的は,SSIM\cite{SSIM}損失と愚かさ率に基づく「textbf{a novel evaluation matric}」であり,また,なぜFID\cite{FID}がそのような逆例を測るのに適さないのかを説明することである。
私たちの知る限りでは、敵攻撃の品質を評価するために特別に設計された最初の評価指標です。
また,潜在空間で作製した逆例の転送可能性を調査し,画素空間で作製した逆例よりも優れていることを示す。
関連論文リスト
- Transcending Adversarial Perturbations: Manifold-Aided Adversarial
Examples with Legitimate Semantics [10.058463432437659]
ディープニューラルネットワークは、悪意のある小さな摂動によって操作される敵の例に対して、極めて脆弱であった。
本稿では, 現実的, 合法的意味論による敵対的事例を生成するために, 教師付き意味変換生成モデルを提案する。
MNISTおよび産業用欠陥データセットを用いた実験により、我々の敵の例は、より良い視覚的品質を示しただけでなく、優れた攻撃伝達性を示した。
論文 参考訳(メタデータ) (2024-02-05T15:25:40Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Latent Feature Relation Consistency for Adversarial Robustness [80.24334635105829]
深層ニューラルネットワークは、人間の知覚できない敵のノイズを自然の例に付加する敵の例を予測するときに、誤分類が起こる。
textbfLatent textbfFeature textbfRelation textbfConsistency (textbfLFRC)を提案する。
LFRCは、潜在空間における逆例の関係を、自然例と整合性に制約する。
論文 参考訳(メタデータ) (2023-03-29T13:50:01Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - SemAttack: Natural Textual Attacks via Different Semantic Spaces [26.97034787803082]
本研究では,異なる意味摂動関数を構築することで,自然な逆文を生成するための効率的なフレームワークを提案する。
SemAttackは、攻撃の成功率の高い異なる言語に対して、敵対的なテキストを生成することができることを示す。
我々の生成した敵対的テキストは自然であり、人間のパフォーマンスにはほとんど影響しない。
論文 参考訳(メタデータ) (2022-05-03T03:44:03Z) - A Frequency Perspective of Adversarial Robustness [72.48178241090149]
理論的および経験的知見を参考に,周波数に基づく対向例の理解について述べる。
分析の結果,逆転例は高周波でも低周波成分でもないが,単にデータセット依存であることがわかった。
本稿では、一般に観測される精度対ロバスト性トレードオフの周波数に基づく説明法を提案する。
論文 参考訳(メタデータ) (2021-10-26T19:12:34Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Intriguing Properties of Adversarial ML Attacks in the Problem Space [Extended Version] [18.3238686304247]
問題空間における敵ML回避攻撃の一般化を提案する。
セマンティクスやアーティファクトの観点から過去の制限を克服する,Androidマルウェアに対する新たな問題空間攻撃を提案する。
我々の結果は、"サービスとしてのアドバイサル・マルウェア"が現実的な脅威であることを示している。
論文 参考訳(メタデータ) (2019-11-05T23:39:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。