論文の概要: Defending from adversarial examples with a two-stream architecture
- arxiv url: http://arxiv.org/abs/1912.12859v1
- Date: Mon, 30 Dec 2019 09:15:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 02:43:54.973378
- Title: Defending from adversarial examples with a two-stream architecture
- Title(参考訳): 2ストリームアーキテクチャによる敵の例から守る
- Authors: Hao Ge, Xiaoguang Tu, Mei Xie, Zheng Ma
- Abstract要約: 本稿では,CNNを敵の例から保護する2ストリームアーキテクチャを提案する。
我々のモデルは、セキュリティ分野でよく使われる"2ストリーム"というアイデアに基づいています。
我々は,我々の手法が最先端の攻撃で打ち負かすことが難しいことを実験的に示す。
- 参考スコア(独自算出の注目度): 6.4914684350055145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, deep learning has shown impressive performance on many
tasks. However, recent researches showed that deep learning systems are
vulnerable to small, specially crafted perturbations that are imperceptible to
humans. Images with such perturbations are the so called adversarial examples,
which have proven to be an indisputable threat to the DNN based applications.
The lack of better understanding of the DNNs has prevented the development of
efficient defenses against adversarial examples. In this paper, we propose a
two-stream architecture to protect CNN from attacking by adversarial examples.
Our model draws on the idea of "two-stream" which commonly used in the security
field, and successfully defends different kinds of attack methods by the
differences of "high-resolution" and "low-resolution" networks in feature
extraction. We provide a reasonable interpretation on why our two-stream
architecture is difficult to defeat, and show experimentally that our method is
hard to defeat with state-of-the-art attacks. We demonstrate that our
two-stream architecture is robust to adversarial examples built by currently
known attacking algorithms.
- Abstract(参考訳): 近年、ディープラーニングは多くのタスクで顕著なパフォーマンスを示している。
しかし、最近の研究では、深層学習システムは人間には受け入れられない小さな、特別に作られた摂動に弱いことが示されている。
このような摂動のあるイメージは、いわゆる逆境の例であり、DNNベースのアプリケーションにとって決定的な脅威であることが証明されている。
DNNの理解が良くないことは、敵の例に対する効率的な防御の開発を妨げている。
本稿では,cnnを敵の事例からの攻撃から守る2つのストリームアーキテクチャを提案する。
本モデルでは,セキュリティ分野において一般的な「2ストリーム」の概念を取り入れ,特徴抽出における「高解像度」ネットワークと「低解像度」ネットワークの違いにより,様々な攻撃手法の防衛に成功した。
我々は,2ストリームアーキテクチャがなぜ打ち破るのが難しいのかを合理的に解釈し,我々の手法が最先端の攻撃で打ち破るのが難しいことを実験的に示す。
我々の2ストリームアーキテクチャは、現在知られている攻撃アルゴリズムによって構築された敵の例に対して堅牢であることを示す。
関連論文リスト
- Detecting Adversarial Examples [24.585379549997743]
本稿では,Deep Neural Networks の層出力を解析して,敵のサンプルを検出する手法を提案する。
提案手法はDNNアーキテクチャと互換性が高く,画像,ビデオ,オーディオなど,さまざまな領域にまたがって適用可能である。
論文 参考訳(メタデータ) (2024-10-22T21:42:59Z) - Instruct2Attack: Language-Guided Semantic Adversarial Attacks [76.83548867066561]
Instruct2Attack (I2A) は、自由形式の言語命令に従って意味のある摂動を生成する言語誘導セマンティックアタックである。
我々は最先端の潜伏拡散モデルを用いて、逆拡散過程を逆ガイドし、入力画像とテキスト命令に条件付けされた逆潜伏符号を探索する。
I2Aは、強い敵の防御の下でも最先端のディープニューラルネットワークを破ることができることを示す。
論文 参考訳(メタデータ) (2023-11-27T05:35:49Z) - AdvDiff: Generating Unrestricted Adversarial Examples using Diffusion Models [7.406040859734522]
制限のない敵攻撃は、深層学習モデルや敵防衛技術に深刻な脅威をもたらす。
以前の攻撃法は、しばしば生成モデルのサンプリングに投影された勾配(PGD)を直接注入する。
本稿では,拡散モデルを用いた非制限逆例を生成するAdvDiffと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T03:10:02Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Challenging the adversarial robustness of DNNs based on error-correcting
output codes [33.46319608673487]
ECOCベースのネットワークは、小さな逆方向の摂動を導入することで、非常に容易に攻撃できる。
敵の例は、予測対象クラスの高い確率を達成するために、このような方法で生成することができる。
論文 参考訳(メタデータ) (2020-03-26T12:14:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。