論文の概要: Feature compression is the root cause of adversarial fragility in neural network classifiers
- arxiv url: http://arxiv.org/abs/2406.16200v2
- Date: Mon, 03 Nov 2025 23:24:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.549586
- Title: Feature compression is the root cause of adversarial fragility in neural network classifiers
- Title(参考訳): ニューラルネット分類器における特徴圧縮は敵対的脆弱性の根本原因である
- Authors: Jingchao Gao, Ziqing Lu, Raghu Mudumbai, Xiaodong Wu, Jirong Yi, Myung Cho, Catherine Xu, Hui Xie, Weiyu Xu,
- Abstract要約: 本稿では,深層ニューラルネットワークの逆方向の脆弱性を行列理論で説明し,分類する。
その結果,入力次元が$d$になるにつれて,ニューラルネットワークの対角ロバスト性は低下する可能性が示唆された。
この理論は, NN for ImageNet画像を含む, 実践的に訓練されたNNの数値実験と極めてよく一致している。
- 参考スコア(独自算出の注目度): 9.02232267673533
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we uniquely study the adversarial robustness of deep neural networks (NN) for classification tasks against that of optimal classifiers. We look at the smallest magnitude of possible additive perturbations that can change a classifier's output. We provide a matrix-theoretic explanation of the adversarial fragility of deep neural networks for classification. In particular, our theoretical results show that a neural network's adversarial robustness can degrade as the input dimension $d$ increases. Analytically, we show that neural networks' adversarial robustness can be only $1/\sqrt{d}$ of the best possible adversarial robustness of optimal classifiers. Our theories match remarkably well with numerical experiments of practically trained NN, including NN for ImageNet images. The matrix-theoretic explanation is consistent with an earlier information-theoretic feature-compression-based explanation for the adversarial fragility of neural networks.
- Abstract(参考訳): 本稿では,分類タスクに対するディープニューラルネットワーク(NN)の対向性と最適分類器の対向性について一意に検討する。
分類器の出力を変えることができる最小の加法摂動を考察する。
本稿では,深層ニューラルネットワークの逆方向の脆弱性を行列理論で説明し,分類する。
特に,ニューラルネットワークの対角ロバスト性は,入力次元が$d$になるにつれて低下する可能性が示唆された。
解析的に、ニューラルネットワークの対向ロバスト性は、最適分類器の最良の対向ロバスト性のうち、わずか1/\sqrt{d}$であることを示す。
この理論は, NN for ImageNet画像を含む, 実践的に訓練されたNNの数値実験と極めてよく一致している。
行列理論的説明は、ニューラルネットワークの対向的脆弱性に関する以前の情報理論的特徴圧縮に基づく説明と一致している。
関連論文リスト
- Emergent weight morphologies in deep neural networks [0.0]
深層ニューラルネットワークのトレーニングは、トレーニングデータとは無関係に、創発的な重量形態を生じさせることを示す。
我々の研究は、ディープニューラルネットワークのトレーニングの出現を示し、ディープニューラルネットワークの達成可能なパフォーマンスに影響を与える。
論文 参考訳(メタデータ) (2025-01-09T19:48:51Z) - Quantum-Inspired Analysis of Neural Network Vulnerabilities: The Role of
Conjugate Variables in System Attacks [54.565579874913816]
ニューラルネットワークは、敵の攻撃として現れる小さな非ランダムな摂動に固有の脆弱性を示す。
この機構と量子物理学の不確実性原理の間に数学的に一致し、予想外の学際性に光を当てる。
論文 参考訳(メタデータ) (2024-02-16T02:11:27Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - On the uncertainty principle of neural networks [4.014046905033123]
量子力学における不確実性原理に根底にあるメカニズムが深く関係している本質的な性質であることを示す。
ニューラルネットワークが正確かつ堅牢であるためには、$x$(入力)と$Delta$(正規化損失関数$J$の導関数である$x$)の2つの部分の特徴を解決する必要がある。
論文 参考訳(メタデータ) (2022-05-03T13:48:12Z) - Adversarial Robustness in Deep Learning: Attacks on Fragile Neurons [0.6899744489931016]
第1畳み込み層の結節投棄を用いて, 深層学習アーキテクチャの脆弱で頑健なニューロンを同定した。
これらのニューロンは,ネットワーク上の敵攻撃の分布と相関する。
論文 参考訳(メタデータ) (2022-01-31T14:34:07Z) - The mathematics of adversarial attacks in AI -- Why deep learning is
unstable despite the existence of stable neural networks [69.33657875725747]
固定アーキテクチャを用いた分類問題に対するニューラルネットワークのトレーニングに基づくトレーニング手順が,不正確あるいは不安定なニューラルネットワーク(正確であれば)を生み出すことを証明している。
鍵となるのは、安定かつ正確なニューラルネットワークは入力に依存する可変次元を持つ必要があり、特に、可変次元は安定性に必要な条件である。
我々の結果は、正確で安定したニューラルネットワークが存在するというパラドックスを示しているが、現代のアルゴリズムはそれらを計算していない。
論文 参考訳(メタデータ) (2021-09-13T16:19:25Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Towards Natural Robustness Against Adversarial Examples [35.5696648642793]
ニューラルODEと呼ばれる新しいディープニューラルネットワークの族が、より弱い上限を持つことを示す。
このより弱い上限は、結果の変化量が大きすぎることを防ぐ。
ニューラルネットワークの自然な頑健性は、敵の訓練手法で訓練されたニューラルネットワークの頑健性よりもさらに優れていることを示す。
論文 参考訳(メタデータ) (2020-12-04T08:12:38Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z) - Adversarial Robustness Guarantees for Random Deep Neural Networks [15.68430580530443]
逆の例は、正しく分類された入力に非常に近い誤った分類された入力です。
任意の$pge1$に対して、分類境界からの任意の入力の$ellp$距離は、入力の$ellp$ノルムの入力時間の次元の平方根の1つとしてスケールする。
この結果は、敵の例を理論的に理解する上での基本的な進歩であり、ネットワークアーキテクチャと敵の摂動に対する頑健性との関係を理論的に解明する道を開くものである。
論文 参考訳(メタデータ) (2020-04-13T13:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。