論文の概要: Exploring the role of Input and Output Layers of a Deep Neural Network
in Adversarial Defense
- arxiv url: http://arxiv.org/abs/2006.01408v1
- Date: Tue, 2 Jun 2020 06:15:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 23:08:05.813545
- Title: Exploring the role of Input and Output Layers of a Deep Neural Network
in Adversarial Defense
- Title(参考訳): 敵防衛におけるディープニューラルネットワークの入力層と出力層の役割を探る
- Authors: Jay N. Paranjape, Rahul Kumar Dubey, Vijendran V Gopalan
- Abstract要約: 通常の人間を騙すのではなく、モデルを完全に誤解させる可能性のある、ある種の入力が存在することが示されている。
逆入力は、そのようなモデルが現実世界のアプリケーションで使用される場合、高いセキュリティ上の脅威となる。
本研究は, 完全に接続された3種類の高密度ネットワークの非段階的攻撃に対する耐性を解析した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks are learning models having achieved state of the art
performance in many fields like prediction, computer vision, language
processing and so on. However, it has been shown that certain inputs exist
which would not trick a human normally, but may mislead the model completely.
These inputs are known as adversarial inputs. These inputs pose a high security
threat when such models are used in real world applications. In this work, we
have analyzed the resistance of three different classes of fully connected
dense networks against the rarely tested non-gradient based adversarial
attacks. These classes are created by manipulating the input and output layers.
We have proven empirically that owing to certain characteristics of the
network, they provide a high robustness against these attacks, and can be used
in fine tuning other models to increase defense against adversarial attacks.
- Abstract(参考訳): ディープニューラルネットワークは、予測、コンピュータビジョン、言語処理など、多くの分野において、アートパフォーマンスの状態を達成した学習モデルである。
しかし、特定の入力は正常に人間を騙さないが、モデルを完全に誤解させる可能性があることが示されている。
これらの入力は逆入力として知られている。
これらの入力は、そのようなモデルが現実世界のアプリケーションで使用される場合、高いセキュリティ上の脅威となる。
本研究では, 完全連結ネットワークの3種類のクラスが, ほとんどテストされていない非段階的攻撃に対する耐性を解析した。
これらのクラスは入力層と出力層を操作することで生成される。
我々は、ネットワークの特定の特性により、これらの攻撃に対して高い堅牢性を提供し、敵の攻撃に対する防御性を高めるために他のモデルの微調整に使用できることを実証してきた。
関連論文リスト
- Adversarial Attacks and Dimensionality in Text Classifiers [3.4179091429029382]
機械学習アルゴリズムに対する敵対的な攻撃は、多くの現実世界のユースケースにおいて、AIの採用を妨げている。
本研究では,自然言語処理分野,特にテキスト分類タスクにおける逆例について検討する。
論文 参考訳(メタデータ) (2024-04-03T11:49:43Z) - Understanding Deep Learning defenses Against Adversarial Examples
Through Visualizations for Dynamic Risk Assessment [0.0]
対人訓練,次元減少,予測類似性を対人攻撃に対する防御として選択した。
各防御において、元のモデルの挙動は、可視化されたグラフによって対象モデルの振る舞いを表現し、防御されたモデルの挙動と比較された。
論文 参考訳(メタデータ) (2024-02-12T09:05:01Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Bluff: Interactively Deciphering Adversarial Attacks on Deep Neural
Networks [21.074988013822566]
Bluffは、視覚ベースのニューラルネットワークに対する敵攻撃を可視化、特徴づけ、解読するインタラクティブシステムである。
敵攻撃がモデルに害を与えるメカニズムを明らかにする。
論文 参考訳(メタデータ) (2020-09-05T22:08:35Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。