論文の概要: Adversarial Defense by Latent Style Transformations
- arxiv url: http://arxiv.org/abs/2006.09701v2
- Date: Tue, 22 Feb 2022 10:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 19:59:34.323952
- Title: Adversarial Defense by Latent Style Transformations
- Title(参考訳): 潜時型変換による対人防御
- Authors: Shuo Wang, Surya Nepal, Alsharif Abuadbba, Carsten Rudolph, Marthie
Grobler
- Abstract要約: 本研究では、不審な入力を検出することにより、高解像度画像に対する敵攻撃に対する攻撃非依存の防御について検討する。
我々のアプローチの背景にある直感は、通常の画像の本質的な特徴は一般に非意味的なスタイル変換と一致しているということである。
- 参考スコア(独自算出の注目度): 20.78877614953599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models have demonstrated vulnerability to adversarial
attacks, more specifically misclassification of adversarial examples.
In this paper, we investigate an attack-agnostic defense against adversarial
attacks on high-resolution images by detecting suspicious inputs.
The intuition behind our approach is that the essential characteristics of a
normal image are generally consistent with non-essential style transformations,
e.g., slightly changing the facial expression of human portraits.
In contrast, adversarial examples are generally sensitive to such
transformations.
In our approach to detect adversarial instances, we propose an
in\underline{V}ertible \underline{A}utoencoder based on the
\underline{S}tyleGAN2 generator via \underline{A}dversarial training (VASA) to
inverse images to disentangled latent codes that reveal hierarchical styles.
We then build a set of edited copies with non-essential style transformations
by performing latent shifting and reconstruction, based on the correspondences
between latent codes and style transformations.
The classification-based consistency of these edited copies is used to
distinguish adversarial instances.
- Abstract(参考訳): 機械学習モデルは敵の攻撃に対する脆弱性を示しており、より具体的には敵の例を誤分類している。
本稿では,不審な入力を検知し,高解像度画像に対する敵対的攻撃に対する攻撃非依存の防御について検討する。
我々のアプローチの背景にある直感は、通常画像の本質的な特徴は一般的に、人間の肖像画の表情をわずかに変化させるような非意味的なスタイル変換と一致しているということである。
対照的に、逆の例は一般にそのような変換に敏感である。
本手法では,非アンダーライン{v}ertible \underline{a}utoencoderを,階層的スタイルを顕示する非絡み合った潜在コードに対して画像の逆変換を行うために,\underline{s}tylegan2 generator (vasa) をベースとする逆行{v}ertible \underline{a}utoencoderを提案する。
次に、潜在コードとスタイル変換の対応性に基づいて、潜在シフトと再構築を行うことにより、非重要スタイル変換による編集されたコピーセットを構築する。
これらの編集されたコピーの分類に基づく一貫性は、敵のインスタンスを区別するために使用される。
関連論文リスト
- Transformation-Dependent Adversarial Attacks [15.374381635334897]
変換依存的敵攻撃(transform-dependent adversarial attack)は、単一の加法摂動が多様で制御可能な誤予測を引き起こす新たな種類の脅威である。
静的な影響を持つ従来の攻撃とは異なり、我々の摂動は変換パラメータの関数として異なる敵攻撃を可能にする変成特性を埋め込む。
論文 参考訳(メタデータ) (2024-06-12T17:31:36Z) - Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - PROVES: Establishing Image Provenance using Semantic Signatures [36.35727952091869]
本稿では,画像中の意味情報の証明を保存するための新しいアーキテクチャを提案する。
このアーキテクチャを用いて、個人識別(顔)と、写真が屋内で撮影されたか屋外で撮影されたかの2種類の意味情報を検証する。
論文 参考訳(メタデータ) (2021-10-21T18:30:09Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - Exploring Adversarial Fake Images on Face Manifold [5.26916168336451]
強力な生成敵対ネットワーク(GAN)ベースの方法によって合成された画像は、道徳的およびプライバシー上の懸念を引き起こしている。
本稿では, 対向雑音を付加する代わりに, 顔多様体上の対向点を最適に探索し, 反forensic fake face imageを生成する。
論文 参考訳(メタデータ) (2021-01-09T02:08:59Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z) - Adversarial Training against Location-Optimized Adversarial Patches [84.96938953835249]
反対のパッチ: 明らかに見えますが 反対に作られた長方形のパッチです
まず、画像内の位置を積極的に最適化しながら、相手パッチを得るための実践的なアプローチを考案する。
CIFAR10とGTSRBでは,これらの位置最適化された対向パッチに対して対向トレーニングを適用し,ロバスト性を著しく向上した。
論文 参考訳(メタデータ) (2020-05-05T16:17:00Z) - Generating Semantic Adversarial Examples via Feature Manipulation [23.48763375455514]
本稿では,意味的意味を持つ構造的摂動を設計することで,より現実的な敵攻撃を提案する。
提案手法は,非絡み付きラテント符号を用いて画像の意味的属性を演算する。
我々は、普遍的で画像に依存しないセマンティック・逆境の例の存在を実証する。
論文 参考訳(メタデータ) (2020-01-06T06:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。