論文の概要: Searching for the Essence of Adversarial Perturbations
- arxiv url: http://arxiv.org/abs/2205.15357v1
- Date: Mon, 30 May 2022 18:04:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 13:19:29.980311
- Title: Searching for the Essence of Adversarial Perturbations
- Title(参考訳): 対人摂動の可能性を探る
- Authors: Dennis Y. Menn and Hung-yi Lee
- Abstract要約: 本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
- 参考スコア(独自算出の注目度): 73.96215665913797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks have achieved the state-of-the-art performance on various
machine learning fields, yet the incorporation of malicious perturbations with
input data (adversarial example) is able to fool neural networks' predictions.
This would lead to potential risks in real-world applications, for example,
auto piloting and facial recognition. However, the reason for the existence of
adversarial examples remains controversial. Here we demonstrate that
adversarial perturbations contain human-recognizable information, which is the
key conspirator responsible for a neural network's erroneous prediction. This
concept of human-recognizable information allows us to explain key features
related to adversarial perturbations, which include the existence of
adversarial examples, the transferability among different neural networks, and
the increased neural network interpretability for adversarial training. Two
unique properties in adversarial perturbations that fool neural networks are
uncovered: masking and generation. A special class, the complementary class, is
identified when neural networks classify input images. The human-recognizable
information contained in adversarial perturbations allows researchers to gain
insight on the working principles of neural networks and may lead to develop
techniques that detect/defense adversarial attacks.
- Abstract(参考訳): ニューラルネットワークは、さまざまな機械学習分野における最先端のパフォーマンスを達成したが、入力データ(逆の例)による悪意のある摂動は、ニューラルネットワークの予測を騙すことができる。
これは、例えば自動操縦や顔認識など、現実世界のアプリケーションに潜在的なリスクをもたらす。
しかし、敵の例の存在の理由はいまだに議論の余地がある。
ここでは,ニューラルネットワークの誤った予測に寄与する重要な共謀者である,人間の認識可能な情報を含む逆行性摂動を実証する。
この認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。例えば、敵の例の存在、異なるニューラルネットワーク間の伝達可能性、敵の訓練におけるニューラルネットワークの解釈可能性の向上などである。
愚かなニューラルネットワークが発見される敵の摂動における2つのユニークな特性:マスキングと生成。
ニューラルネットワークが入力画像を分類する際、特別なクラス、補クラスが識別される。
敵対的摂動に含まれる人間の認識可能な情報は、ニューラルネットワークの動作原理に関する洞察を得ることができ、敵の攻撃を検出し防御する技術の開発につながる可能性がある。
関連論文リスト
- Towards unlocking the mystery of adversarial fragility of neural networks [6.589200529058999]
分類アルゴリズムの出力を変えることができる最小の加法摂動を考察する。
本稿では,ディープニューラルネットワークの逆方向の脆弱性を行列理論で説明して分類する。
論文 参考訳(メタデータ) (2024-06-23T19:37:13Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - A reading survey on adversarial machine learning: Adversarial attacks
and their understanding [6.1678491628787455]
Adversarial Machine Learningは、ニューラルネットワークがほぼオリジナルの入力を誤って分類する原因となる脆弱性を悪用し、理解する。
敵攻撃と呼ばれるアルゴリズムのクラスが提案され、ニューラルネットワークが異なるドメインの様々なタスクを誤って分類する。
本稿は、既存の敵攻撃とその理解について、異なる視点で調査する。
論文 参考訳(メタデータ) (2023-08-07T07:37:26Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z) - Relationship between manifold smoothness and adversarial vulnerability
in deep learning with local errors [2.7834038784275403]
ニューラルネットワークにおける敵の脆弱性の起源について検討する。
本研究は,隠れ表現の固有スペクトルの比較的高速なパワーロー崩壊を必要とすることを明らかにする。
論文 参考訳(メタデータ) (2020-07-04T08:47:51Z) - Bayesian Neural Networks [0.0]
ニューラルネットワークによる予測におけるエラーを原理的に得る方法を示し、これらのエラーを特徴付ける2つの方法を提案する。
さらに、これらの2つのメソッドが実際に実施される際に、重大な落とし穴を持つ方法についても説明します。
論文 参考訳(メタデータ) (2020-06-02T09:43:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。