論文の概要: Searching for the Essence of Adversarial Perturbations
- arxiv url: http://arxiv.org/abs/2205.15357v1
- Date: Mon, 30 May 2022 18:04:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 13:19:29.980311
- Title: Searching for the Essence of Adversarial Perturbations
- Title(参考訳): 対人摂動の可能性を探る
- Authors: Dennis Y. Menn and Hung-yi Lee
- Abstract要約: 本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
- 参考スコア(独自算出の注目度): 73.96215665913797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks have achieved the state-of-the-art performance on various
machine learning fields, yet the incorporation of malicious perturbations with
input data (adversarial example) is able to fool neural networks' predictions.
This would lead to potential risks in real-world applications, for example,
auto piloting and facial recognition. However, the reason for the existence of
adversarial examples remains controversial. Here we demonstrate that
adversarial perturbations contain human-recognizable information, which is the
key conspirator responsible for a neural network's erroneous prediction. This
concept of human-recognizable information allows us to explain key features
related to adversarial perturbations, which include the existence of
adversarial examples, the transferability among different neural networks, and
the increased neural network interpretability for adversarial training. Two
unique properties in adversarial perturbations that fool neural networks are
uncovered: masking and generation. A special class, the complementary class, is
identified when neural networks classify input images. The human-recognizable
information contained in adversarial perturbations allows researchers to gain
insight on the working principles of neural networks and may lead to develop
techniques that detect/defense adversarial attacks.
- Abstract(参考訳): ニューラルネットワークは、さまざまな機械学習分野における最先端のパフォーマンスを達成したが、入力データ(逆の例)による悪意のある摂動は、ニューラルネットワークの予測を騙すことができる。
これは、例えば自動操縦や顔認識など、現実世界のアプリケーションに潜在的なリスクをもたらす。
しかし、敵の例の存在の理由はいまだに議論の余地がある。
ここでは,ニューラルネットワークの誤った予測に寄与する重要な共謀者である,人間の認識可能な情報を含む逆行性摂動を実証する。
この認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。例えば、敵の例の存在、異なるニューラルネットワーク間の伝達可能性、敵の訓練におけるニューラルネットワークの解釈可能性の向上などである。
愚かなニューラルネットワークが発見される敵の摂動における2つのユニークな特性:マスキングと生成。
ニューラルネットワークが入力画像を分類する際、特別なクラス、補クラスが識別される。
敵対的摂動に含まれる人間の認識可能な情報は、ニューラルネットワークの動作原理に関する洞察を得ることができ、敵の攻撃を検出し防御する技術の開発につながる可能性がある。
関連論文リスト
- A reading survey on adversarial machine learning: Adversarial attacks
and their understanding [6.1678491628787455]
Adversarial Machine Learningは、ニューラルネットワークがほぼオリジナルの入力を誤って分類する原因となる脆弱性を悪用し、理解する。
敵攻撃と呼ばれるアルゴリズムのクラスが提案され、ニューラルネットワークが異なるドメインの様々なタスクを誤って分類する。
本稿は、既存の敵攻撃とその理解について、異なる視点で調査する。
論文 参考訳(メタデータ) (2023-08-07T07:37:26Z) - Visual Analytics of Neuron Vulnerability to Adversarial Attacks on
Convolutional Neural Networks [28.081328051535618]
畳み込みニューラルネットワーク(CNN)に対する敵対的攻撃は、高性能CNNを騙して誤った予測をする可能性がある。
我々の研究は、敵の攻撃を理解するための視覚分析手法を導入している。
視覚分析システムは、敵対的攻撃を解釈するための視覚的推論を組み込むように設計されている。
論文 参考訳(メタデータ) (2023-03-06T01:01:56Z) - Neural Bayesian Network Understudy [13.28673601999793]
ニューラルネットワークは条件付き確率を出力するように訓練でき、ベイズネットワークとほぼ同じ機能を提供する。
ニューラルネットワークに与えられた因果構造から推定される独立関係を符号化する2つのトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2022-11-15T15:56:51Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Biological error correction codes generate fault-tolerant neural
networks [60.72524873719315]
各ニューロンの欠陥が鋭い閾値以下であれば、普遍的なフォールトトレラントニューラルネットワークが実現可能であることを示す。
この発見は、人工知能と神経科学におけるノイズの多いアナログシステムを理解するための道を開く。
論文 参考訳(メタデータ) (2022-02-25T18:55:46Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z) - Relationship between manifold smoothness and adversarial vulnerability
in deep learning with local errors [2.7834038784275403]
ニューラルネットワークにおける敵の脆弱性の起源について検討する。
本研究は,隠れ表現の固有スペクトルの比較的高速なパワーロー崩壊を必要とすることを明らかにする。
論文 参考訳(メタデータ) (2020-07-04T08:47:51Z) - Bayesian Neural Networks [0.0]
ニューラルネットワークによる予測におけるエラーを原理的に得る方法を示し、これらのエラーを特徴付ける2つの方法を提案する。
さらに、これらの2つのメソッドが実際に実施される際に、重大な落とし穴を持つ方法についても説明します。
論文 参考訳(メタデータ) (2020-06-02T09:43:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。