論文の概要: On bounds for norms of reparameterized ReLU artificial neural network
parameters: sums of fractional powers of the Lipschitz norm control the
network parameter vector
- arxiv url: http://arxiv.org/abs/2206.13646v1
- Date: Mon, 27 Jun 2022 22:08:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 14:37:25.193201
- Title: On bounds for norms of reparameterized ReLU artificial neural network
parameters: sums of fractional powers of the Lipschitz norm control the
network parameter vector
- Title(参考訳): 再パラメータ付きrelu人工ニューラルネットワークパラメータのノルムの境界について:ネットワークパラメータベクトルを制御するリプシッツノルムの分数和について
- Authors: Arnulf Jentzen, Timo Kr\"oger
- Abstract要約: 浅層ANNにおいても逆不等式が真であることを示す。
この上界は、指数が 1/2 $ と 1 $ のときのみリプシッツノルムの和が成り立つが、リプシッツノルムだけは成り立たないことを証明している。
- 参考スコア(独自算出の注目度): 2.4874453414078896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is an elementary fact in the scientific literature that the Lipschitz norm
of the realization function of a feedforward fully-connected rectified linear
unit (ReLU) artificial neural network (ANN) can, up to a multiplicative
constant, be bounded from above by sums of powers of the norm of the ANN
parameter vector. Roughly speaking, in this work we reveal in the case of
shallow ANNs that the converse inequality is also true. More formally, we prove
that the norm of the equivalence class of ANN parameter vectors with the same
realization function is, up to a multiplicative constant, bounded from above by
the sum of powers of the Lipschitz norm of the ANN realization function (with
the exponents $ 1/2 $ and $ 1 $). Moreover, we prove that this upper bound only
holds when employing the Lipschitz norm but does neither hold for H\"older
norms nor for Sobolev-Slobodeckij norms. Furthermore, we prove that this upper
bound only holds for sums of powers of the Lipschitz norm with the exponents $
1/2 $ and $ 1 $ but does not hold for the Lipschitz norm alone.
- Abstract(参考訳): フィードフォワード完全連結整流線形ユニット(ReLU)人工ニューラルネットワーク(ANN)の実現関数のリプシッツノルムは、乗算定数まで、ANNパラメータベクトルのノルムの和によって上から有界にすることができることは、科学文献における基本的な事実である。
大まかに言えば、この研究において、浅い ANN の場合、逆不等式も真であることを明らかにする。
より正式には、同じ実現関数を持つANNパラメータベクトルの同値類のノルムが、ANN実現関数のリプシッツノルムの和の和によって上から有界な乗法定数まで(指数は1/2$と1$)であることが証明される。
さらに、この上限はリプシッツノルムを用いる場合にのみ成立するが、H\"古いノルムやソボレフ・スロボデッキーノルムについては成り立たないことを証明している。
さらに、この上限がリプシッツノルムの和に対してのみ成り立つことを証明し、指数 1/2 $ と 1 $ が成立するが、リプシッツノルムだけでは成立しないことを示す。
関連論文リスト
- Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Efficient Bound of Lipschitz Constant for Convolutional Layers by Gram
Iteration [122.51142131506639]
循環行列理論を用いて畳み込み層のスペクトルノルムに対して、精密で高速で微分可能な上界を導入する。
提案手法は, 精度, 計算コスト, スケーラビリティの観点から, 他の最先端手法よりも優れていることを示す。
これは畳み込みニューラルネットワークのリプシッツ正則化に非常に効果的であり、並行アプローチに対する競合的な結果である。
論文 参考訳(メタデータ) (2023-05-25T15:32:21Z) - Penalising the biases in norm regularisation enforces sparsity [28.86954341732928]
この研究は、関数を表すのに必要なパラメータのノルムが、その第二微分の総変分によって与えられることを示し、$sqrt1+x2$ factorで重み付けされる。
特に、この重み付け係数はバイアス項のノルムが正規化されないときに消失する。
論文 参考訳(メタデータ) (2023-03-02T15:33:18Z) - Efficiently Computing Local Lipschitz Constants of Neural Networks via
Bound Propagation [79.13041340708395]
リプシッツ定数は、堅牢性、公正性、一般化など、ニューラルネットワークの多くの性質と結びついている。
既存のリプシッツ定数の計算法は、相対的に緩い上界を生成するか、小さなネットワークに制限される。
ニューラルネットワークの局所リプシッツ定数$ell_infty$をクラーク・ヤコビアンのノルムを強く上向きに上向きに計算する効率的なフレームワークを開発する。
論文 参考訳(メタデータ) (2022-10-13T22:23:22Z) - Lipschitz Continuity Retained Binary Neural Network [52.17734681659175]
我々は,BNNのモデルロバスト性を定義するための厳密な基準として,リプシッツ連続性を導入する。
次に、モデルロバスト性を改善するための正規化項としてリプシッツ連続性を維持することを提案する。
実験により,我々のBNN固有の正規化手法は,BNNの堅牢性を効果的に強化できることが証明された。
論文 参考訳(メタデータ) (2022-07-13T22:55:04Z) - Lipschitz Bounded Equilibrium Networks [3.2872586139884623]
本稿では、平衡ニューラルネットワーク、すなわち暗黙の方程式で定義されるネットワークの新しいパラメータ化を提案する。
新しいパラメータ化は、制約のない最適化を通じてトレーニング中にリプシッツ境界を許容する。
画像分類実験では、リプシッツ境界は非常に正確であり、敵攻撃に対する堅牢性を向上させることが示されている。
論文 参考訳(メタデータ) (2020-10-05T01:00:40Z) - Analytical bounds on the local Lipschitz constants of affine-ReLU
functions [0.0]
Affine-ReLU関数の局所リプシッツ定数の上界を数学的に決定する。
ネットワーク全体のバウンダリを決定するために、これらのバウンダリをどのように組み合わせることができるかを示す。
我々は、この結果をAlexNetに適用し、MNISTとCIFAR-10データセットに基づくいくつかの小さなネットワークを例示する。
論文 参考訳(メタデータ) (2020-08-14T00:23:21Z) - On Lipschitz Regularization of Convolutional Layers using Toeplitz
Matrix Theory [77.18089185140767]
リプシッツ正則性は現代のディープラーニングの重要な性質として確立されている。
ニューラルネットワークのリプシッツ定数の正確な値を計算することはNPハードであることが知られている。
より厳密で計算が容易な畳み込み層に対する新しい上限を導入する。
論文 参考訳(メタデータ) (2020-06-15T13:23:34Z) - The Lipschitz Constant of Self-Attention [27.61634862685452]
ニューラルネットワークのリプシッツ定数は、ディープラーニングにおいて様々な文脈で研究されている。
配列モデリングに広く用いられている非線形ニューラルネットワークモジュールである自己アテンションのリプシッツ定数について検討する。
論文 参考訳(メタデータ) (2020-06-08T16:08:38Z) - Exactly Computing the Local Lipschitz Constant of ReLU Networks [98.43114280459271]
ニューラルネットワークの局所リプシッツ定数は、堅牢性、一般化、公正性評価に有用な指標である。
ReLUネットワークのリプシッツ定数を推定するために, 強い不適合性を示す。
このアルゴリズムを用いて、競合するリプシッツ推定器の密度と正規化トレーニングがリプシッツ定数に与える影響を評価する。
論文 参考訳(メタデータ) (2020-03-02T22:15:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。