論文の概要: Analysis of Dominant Classes in Universal Adversarial Perturbations
- arxiv url: http://arxiv.org/abs/2012.14352v2
- Date: Mon, 11 Jan 2021 10:16:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 11:00:10.433739
- Title: Analysis of Dominant Classes in Universal Adversarial Perturbations
- Title(参考訳): 普遍的対向摂動における支配クラスの解析
- Authors: Jon Vadillo and Roberto Santana and Jose A. Lozano
- Abstract要約: 文献で報告されている普遍的摂動現象について検討するが,その正当性は証明されていない。
普遍摂動は、ほとんどの入力の予測クラスを、摂動の生成時にこの振る舞いが特定されない場合でも、一つの特定の(支配的な)クラスに変化させることを示す。
本研究は,普遍摂動の興味深い性質を明らかにし,そのような攻撃を発生させる新しい手法を提案し,支配的クラスを説明する。
- 参考スコア(独自算出の注目度): 1.160208922584163
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The reasons why Deep Neural Networks are susceptible to being fooled by
adversarial examples remains an open discussion. Indeed, many different
strategies can be employed to efficiently generate adversarial attacks, some of
them relying on different theoretical justifications. Among these strategies,
universal (input-agnostic) perturbations are of particular interest, due to
their capability to fool a network independently of the input in which the
perturbation is applied. In this work, we investigate an intriguing phenomenon
of universal perturbations, which has been reported previously in the
literature, yet without a proven justification: universal perturbations change
the predicted classes for most inputs into one particular (dominant) class,
even if this behavior is not specified during the creation of the perturbation.
In order to justify the cause of this phenomenon, we propose a number of
hypotheses and experimentally test them using a speech command classification
problem in the audio domain as a testbed. Our analyses reveal interesting
properties of universal perturbations, suggest new methods to generate such
attacks and provide an explanation of dominant classes, under both a geometric
and a data-feature perspective.
- Abstract(参考訳): ディープニューラルネットワークが敵の例に騙されやすい理由は、まだ議論の余地がある。
実際、多くの異なる戦略が敵の攻撃を効率的に発生させるのに使えるが、その一部は異なる理論的正当化に依存している。
これらの戦略のうち、普遍的(入力非依存)摂動は、摂動が適用される入力とは独立してネットワークを騙す能力があるため、特に興味深い。
本稿では,これまで文献で報告されてきた普遍摂動の興味をそそられる現象について検討するが,その正当性は証明されていない: 普遍摂動は,その摂動の生成中にその挙動が特定されていない場合でも,ほとんどの入力に対して予測されたクラスを1つの(支配的な)クラスに変更する。
本研究は,この現象の原因を正当化するために,音声領域における音声コマンド分類問題を用いて,複数の仮説を提案し,実験的に検証する。
本解析では,普遍摂動の興味深い性質を明らかにし,このような攻撃を発生させる新しい手法を提案し,幾何学的およびデータ的観点から支配的クラスを説明する。
関連論文リスト
- Theoretical Understanding of Learning from Adversarial Perturbations [30.759348459463467]
敵の例がなぜニューラルネットワークを騙し、異なるネットワーク間で転送できるのかは、完全には理解されていない。
本研究では,一層ネットワークを用いた摂動からの学習の理論的枠組みを提案する。
以上の結果から,数ピクセルの摂動を含む様々な対向的摂動は,一般化に十分なクラス特徴を含むことが明らかとなった。
論文 参考訳(メタデータ) (2024-02-16T06:22:44Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - A Survey On Universal Adversarial Attack [68.1815935074054]
ディープニューラルネットワーク(DNN)は、様々なアプリケーションで顕著な性能を示している。
敵の摂動の攻撃に弱いことが広く知られている。
ユニバーサル敵対的摂動(UAP)は、ほとんどの画像のターゲットDNNをだまします。
論文 参考訳(メタデータ) (2021-03-02T06:35:09Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Verifying the Causes of Adversarial Examples [5.381050729919025]
ニューラルネットワークのロバスト性は、入力に対するほとんど知覚できない摂動を含む敵の例によって挑戦される。
本稿では,敵対的事例の潜在的な原因の収集と,慎重に設計された制御実験による検証(あるいは部分的に検証)を行う。
実験の結果, 幾何学的要因はより直接的な原因であり, 統計的要因は現象を増大させることが明らかとなった。
論文 参考訳(メタデータ) (2020-10-19T16:17:20Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z) - Relationship between manifold smoothness and adversarial vulnerability
in deep learning with local errors [2.7834038784275403]
ニューラルネットワークにおける敵の脆弱性の起源について検討する。
本研究は,隠れ表現の固有スペクトルの比較的高速なパワーロー崩壊を必要とすることを明らかにする。
論文 参考訳(メタデータ) (2020-07-04T08:47:51Z) - Universal Adversarial Perturbations: A Survey [0.0]
深いニューラルネットワークは敵の摂動に影響を受けやすい。
これらの摂動は、入力画像に知覚的な変更を加えることなく、ネットワークの予測を変更させる可能性がある。
我々は、普遍的な摂動を生成するための様々なデータ駆動型およびデータ非依存の手法について、詳細な議論を行う。
論文 参考訳(メタデータ) (2020-05-16T20:18:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。