論文の概要: A Law of Robustness for Weight-bounded Neural Networks
- arxiv url: http://arxiv.org/abs/2102.08093v1
- Date: Tue, 16 Feb 2021 11:28:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 15:17:08.654155
- Title: A Law of Robustness for Weight-bounded Neural Networks
- Title(参考訳): 重み付きニューラルネットワークにおけるロバストネスの法則
- Authors: Hisham Husain, Borja Balle
- Abstract要約: 最近(bubeck et al., 2020)は、k$ニューロンを持つ2層ネットワークを使ってジェネリックデータセットに適合する場合、最小のリプシッツ定数は$omega(sqrtfracnk)$であると予想した。
本研究では,任意のモデルクラスに対して,有界ラデマチャー複雑性を持つLipschitz定数の下限を導出する。
この結果は(bubeck et al., 2020)2層ネットワークにおける有界重みを仮定した予想と一致する。
- 参考スコア(独自算出の注目度): 37.54604146791085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robustness of deep neural networks against adversarial perturbations is a
pressing concern motivated by recent findings showing the pervasive nature of
such vulnerabilities. One method of characterizing the robustness of a neural
network model is through its Lipschitz constant, which forms a robustness
certificate. A natural question to ask is, for a fixed model class (such as
neural networks) and a dataset of size $n$, what is the smallest achievable
Lipschitz constant among all models that fit the dataset? Recently, (Bubeck et
al., 2020) conjectured that when using two-layer networks with $k$ neurons to
fit a generic dataset, the smallest Lipschitz constant is
$\Omega(\sqrt{\frac{n}{k}})$. This implies that one would require one neuron
per data point to robustly fit the data. In this work we derive a lower bound
on the Lipschitz constant for any arbitrary model class with bounded Rademacher
complexity. Our result coincides with that conjectured in (Bubeck et al., 2020)
for two-layer networks under the assumption of bounded weights. However, due to
our result's generality, we also derive bounds for multi-layer neural networks,
discovering that one requires $\log n$ constant-sized layers to robustly fit
the data. Thus, our work establishes a law of robustness for weight bounded
neural networks and provides formal evidence on the necessity of
over-parametrization in deep learning.
- Abstract(参考訳): 敵の摂動に対するディープニューラルネットワークのロバスト性は、このような脆弱性の浸透性を示す最近の発見に動機づけられている。
ニューラルネットワークモデルの堅牢性を特徴付ける方法の1つは、堅牢性証明書を形成するLipschitz定数である。
質問すべき自然な質問は、固定モデルクラス(ニューラルネットワークなど)とサイズ$n$のデータセットに対して、データセットに適合するすべてのモデルの中で最小の達成可能なLipschitz定数は何ですか?
最近 (bubeck et al., 2020) は、k$ニューロンを持つ2層ネットワークを用いてジェネリックデータセットに適合する場合、最小のリプシッツ定数は$\omega(\sqrt{\frac{n}{k}})$であると予想した。
これは、データポイントごとに1つのニューロンがデータにしっかりと収まる必要があることを意味する。
本研究では,任意のモデルクラスに対して,有界ラデマチャー複雑性を持つLipschitz定数の下限を導出する。
この結果は(bubeck et al., 2020)2層ネットワークにおける有界重みを仮定した予想と一致する。
しかし、結果の一般性のため、多層ニューラルネットワークの境界も導出し、データにロバストに適合するために$\log n$定数サイズの層が必要であることを発見した。
そこで本研究では,重み付きニューラルネットワークの堅牢性の法則を確立し,深層学習における過並列化の必要性を公式に証明する。
関連論文リスト
- Computable Lipschitz Bounds for Deep Neural Networks [0.0]
我々は$l2$ノルムのために書かれた3つの既存の上限を分析する。
本稿では,フィードフォワード完全接続ニューラルネットワークと畳み込みニューラルネットワークの2つの新しい境界を提案する。
論文 参考訳(メタデータ) (2024-10-28T14:09:46Z) - Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - The Rate of Convergence of Variation-Constrained Deep Neural Networks [35.393855471751756]
変動制約のあるニューラルネットワークのクラスは、任意に小さな定数$delta$に対して、ほぼパラメトリックレート$n-1/2+delta$を達成することができることを示す。
その結果、滑らかな関数の近似に必要な神経機能空間は、しばしば知覚されるものほど大きくない可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-22T21:28:00Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Fundamental tradeoffs between memorization and robustness in random
features and neural tangent regimes [15.76663241036412]
モデルがトレーニングのごく一部を記憶している場合、そのソボレフ・セミノルムは低い有界であることを示す。
実験によって初めて、(iv)ミンノルム補間器の堅牢性における多重発色現象が明らかになった。
論文 参考訳(メタデータ) (2021-06-04T17:52:50Z) - A law of robustness for two-layers neural networks [35.996863024271974]
我々は、任意のリプシッツ活性化関数とほとんどのデータセットにおいて、$k$のニューロンを持つ任意の2層ニューラルネットワークは、データに完全に適合する任意の2層ニューラルネットワークは、そのリプシッツ定数が$sqrtn/k$よりも大きい(定数まで)。
この予想は、リプシッツ定数が重み行列のスペクトルノルムに基づいて上界に置き換わるときに証明する。
論文 参考訳(メタデータ) (2020-09-30T05:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。