論文の概要: Quantum-Inspired Analysis of Neural Network Vulnerabilities: The Role of
Conjugate Variables in System Attacks
- arxiv url: http://arxiv.org/abs/2402.10983v1
- Date: Fri, 16 Feb 2024 02:11:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 00:16:44.528980
- Title: Quantum-Inspired Analysis of Neural Network Vulnerabilities: The Role of
Conjugate Variables in System Attacks
- Title(参考訳): ニューラルネットワーク脆弱性の量子インスパイア解析:システム攻撃における共役変数の役割
- Authors: Jun-Jie Zhang, Deyu Meng
- Abstract要約: ニューラルネットワークは、敵の攻撃として現れる小さな非ランダムな摂動に固有の脆弱性を示す。
この機構と量子物理学の不確実性原理の間に数学的に一致し、予想外の学際性に光を当てる。
- 参考スコア(独自算出の注目度): 54.565579874913816
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Neural networks demonstrate inherent vulnerability to small, non-random
perturbations, emerging as adversarial attacks. Such attacks, born from the
gradient of the loss function relative to the input, are discerned as input
conjugates, revealing a systemic fragility within the network structure.
Intriguingly, a mathematical congruence manifests between this mechanism and
the quantum physics' uncertainty principle, casting light on a hitherto
unanticipated interdisciplinarity. This inherent susceptibility within neural
network systems is generally intrinsic, highlighting not only the innate
vulnerability of these networks but also suggesting potential advancements in
the interdisciplinary area for understanding these black-box networks.
- Abstract(参考訳): ニューラルネットワークは、敵の攻撃として現れる小さな非ランダムな摂動に固有の脆弱性を示す。
このような攻撃は入力に対する損失関数の勾配から生じ、入力共役として認識され、ネットワーク構造内のシステム的脆弱性が明らかにされる。
興味深いことに、この機構と量子物理学の不確実性原理の間に数学的合同が現れ、予想外の学際性に光を当てる。
ニューラルネットワークシステムにおけるこの固有の感受性は、一般的に本質的であり、これらのネットワークの本質的な脆弱性だけでなく、これらのブラックボックスネットワークを理解するための学際領域の潜在的な進歩を示唆している。
関連論文リスト
- Disentangling the Causes of Plasticity Loss in Neural Networks [55.23250269007988]
可塑性の喪失は複数の独立したメカニズムに分解できることを示す。
種々の非定常学習タスクにおいて, 層正規化と重み劣化の組み合わせは, 可塑性維持に極めて有効であることを示す。
論文 参考訳(メタデータ) (2024-02-29T00:02:33Z) - Predicting Instability in Complex Oscillator Networks: Limitations and
Potentials of Network Measures and Machine Learning [0.0]
我々は46の関連するネットワーク測度を収集し、小さなサブセットが安定性を確実に予測できないことを発見した。
GNNの性能は、すべてのネットワーク測度とノードワイズ機械学習を組み合わせることでのみ一致できる。
このことは,ネットワーク計測と関数の相関関係が誤解を招く可能性があり,GNNが構造と安定性の因果関係をかなりよく捉えていることを示唆している。
論文 参考訳(メタデータ) (2024-02-27T13:34:08Z) - Certified Invertibility in Neural Networks via Mixed-Integer Programming [16.64960701212292]
ニューラルネットワークは敵の攻撃に弱いことが知られている。
ネットワークの決定に影響を与えない大きな、意味のある摂動が存在するかもしれない。
ニューラルネットワーク間の変換における可逆性検証に,我々の知見がどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2023-01-27T15:40:38Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - On the uncertainty principle of neural networks [4.014046905033123]
量子力学における不確実性原理に根底にあるメカニズムが深く関係している本質的な性質であることを示す。
ニューラルネットワークが正確かつ堅牢であるためには、$x$(入力)と$Delta$(正規化損失関数$J$の導関数である$x$)の2つの部分の特徴を解決する必要がある。
論文 参考訳(メタデータ) (2022-05-03T13:48:12Z) - Building Compact and Robust Deep Neural Networks with Toeplitz Matrices [93.05076144491146]
この論文は、コンパクトで、訓練が容易で、信頼性があり、敵の例に対して堅牢なニューラルネットワークを訓練する問題に焦点を当てている。
Toeplitzファミリーの構造化行列の特性を利用して、コンパクトでセキュアなニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2021-09-02T13:58:12Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z) - A neural network model of perception and reasoning [0.0]
生物学的に一貫した構成原理の単純なセットが神経ネットワークにこれらの能力を与えることを示す。
我々はこれらの原理を、最適化の代わりに概念構築に基づく新しい機械学習アルゴリズムで実装し、説明可能なニューロン活動で推論されるディープニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-02-26T06:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。