論文の概要: Type I Attack for Generative Models
- arxiv url: http://arxiv.org/abs/2003.01872v1
- Date: Wed, 4 Mar 2020 03:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 13:00:28.040656
- Title: Type I Attack for Generative Models
- Title(参考訳): 生成モデルに対するタイプi攻撃
- Authors: Chengjin Sun, Sizhe Chen, Jia Cai, Xiaolin Huang
- Abstract要約: VAEやGANなどの生成モデルに対するI型攻撃を提案する。
本手法は,大規模画像データセットにおける生成モデルに対するタイプIの逆例を生成するのに有効である。
- 参考スコア(独自算出の注目度): 16.525823302000877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models are popular tools with a wide range of applications.
Nevertheless, it is as vulnerable to adversarial samples as classifiers. The
existing attack methods mainly focus on generating adversarial examples by
adding imperceptible perturbations to input, which leads to wrong result.
However, we focus on another aspect of attack, i.e., cheating models by
significant changes. The former induces Type II error and the latter causes
Type I error. In this paper, we propose Type I attack to generative models such
as VAE and GAN. One example given in VAE is that we can change an original
image significantly to a meaningless one but their reconstruction results are
similar. To implement the Type I attack, we destroy the original one by
increasing the distance in input space while keeping the output similar because
different inputs may correspond to similar features for the property of deep
neural network. Experimental results show that our attack method is effective
to generate Type I adversarial examples for generative models on large-scale
image datasets.
- Abstract(参考訳): 生成モデルは幅広いアプリケーションを持つ一般的なツールである。
それでも、逆検体は分類器として脆弱である。
既存の攻撃手法は主に、入力に知覚不能な摂動を加えることで敵の例を生成することに焦点を当てており、これは間違った結果をもたらす。
しかし、攻撃の別の側面、すなわち、重要な変更によるモデルを不正にすることに焦点を当てる。
前者はタイプIIのエラーを誘発し、後者はタイプIのエラーを引き起こす。
本稿では,VAEやGANなどの生成モデルに対するI型攻撃を提案する。
VAEの例の1つは、オリジナル画像を意味のないものに変更できるが、再構成結果は類似している。
Type I攻撃を実装するために、入力空間の距離を増大させ、入力が異なる場合、深層ニューラルネットワークの特性に類似した特徴に対応する可能性があるため、出力を同じに保ちながら、元の攻撃を破棄する。
実験の結果,本手法は大規模画像データセット上で生成モデルのタイプi逆例を生成するのに有効であることがわかった。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - A New Kind of Adversarial Example [47.64219291655723]
モデルが元の決定を維持しているようなイメージに十分な摂動が加えられる一方、人間は決定を強制すれば間違いを犯す可能性が高い。
提案した攻撃はNKEと呼ばれ、本質的にはばかげた画像に似ているが、進化アルゴリズムの代わりに勾配降下を用いるため、より効率的である。
論文 参考訳(メタデータ) (2022-08-04T03:45:44Z) - Practical No-box Adversarial Attacks against DNNs [31.808770437120536]
我々は、攻撃者がモデル情報やトレーニングセットにアクセスしたり、モデルに問い合わせたりできない、ノンボックスの逆例を調査する。
非常に小さなデータセットでトレーニングを行うための3つのメカニズムを提案し、プロトタイプの再構築が最も効果的であることを示す。
提案手法は, システムの平均予測精度を15.40%に低下させ, 事前学習したArcfaceモデルから, 敵のサンプルを転送する攻撃と同等にする。
論文 参考訳(メタデータ) (2020-12-04T11:10:03Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Differentiable Language Model Adversarial Attacks on Categorical
Sequence Classifiers [0.0]
敵対的攻撃パラダイムは、ディープラーニングモデルの脆弱性の様々なシナリオを探索する。
本研究では,言語モデルの微調整を,敵対的攻撃のジェネレータとして利用する。
我々のモデルは、銀行取引、電子健康記録、NLPデータセットに関する多様なデータセットに対して機能する。
論文 参考訳(メタデータ) (2020-06-19T11:25:36Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z) - Fundamental Tradeoffs between Invariance and Sensitivity to Adversarial
Perturbations [65.05561023880351]
敵の例は誤分類を引き起こすために作られた悪意のある入力である。
本稿では, 相補的障害モード, 不変性に基づく逆数例について検討する。
感度に基づく攻撃に対する防御は、不変性に基づく攻撃に対するモデルの精度を積極的に損なうことを示す。
論文 参考訳(メタデータ) (2020-02-11T18:50:23Z) - AdvJND: Generating Adversarial Examples with Just Noticeable Difference [3.638233924421642]
例に小さな摂動を加えると、優れたパフォーマンスモデルが工芸品の例を誤って分類する。
我々のAdvJNDアルゴリズムが生成した逆例は、元の入力に類似した分布を生成する。
論文 参考訳(メタデータ) (2020-02-01T09:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。