論文の概要: Lipschitz neural networks are dense in the set of all Lipschitz
functions
- arxiv url: http://arxiv.org/abs/2009.13881v1
- Date: Tue, 29 Sep 2020 09:15:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 05:51:50.794703
- Title: Lipschitz neural networks are dense in the set of all Lipschitz
functions
- Title(参考訳): リプシッツニューラルネットワークは、すべてのリプシッツ関数の集合に密接である
- Authors: Stephan Eckstein
- Abstract要約: 固定されたリプシッツ定数 $L > 0$ に対して、$L$-Lipschitz である1層ニューラルネットワークは、有界集合上の一様ノルムに関してすべての $L$-Lipschitz 函数の集合に密接である。
このノートは、固定されたリプシッツ定数 $L > 0$ に対して、$L$-Lipschitz である1層ニューラルネットワークは、有界集合上の一様ノルムに関してすべての $L$-Lipschitz 函数の集合に密接であることを示している。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This note shows that, for a fixed Lipschitz constant $L > 0$, one layer
neural networks that are $L$-Lipschitz are dense in the set of all
$L$-Lipschitz functions with respect to the uniform norm on bounded sets.
- Abstract(参考訳): このノートは、固定されたリプシッツ定数 $L > 0$ に対して、$L$-Lipschitz である1層ニューラルネットワークは、有界集合上の一様ノルムに関してすべての $L$-Lipschitz 函数の集合に密接であることを示している。
関連論文リスト
- MIQCQP reformulation of the ReLU neural networks Lipschitz constant
estimation problem [0.0]
ニューラルネットワークのリプシッツ推定問題に対する2次拘束型MIP定式化を提案する。
これらの問題の解はリプシッツ定数の下限と上限を与える。
我々は、それらが正確なリプシッツ定数と一致するときの条件を詳述する。
論文 参考訳(メタデータ) (2024-02-02T07:55:42Z) - Novel Quadratic Constraints for Extending LipSDP beyond Slope-Restricted
Activations [52.031701581294804]
ニューラルネットワークのリプシッツ境界は、高い時間保存保証で計算できる。
このギャップを埋めて,リプシッツを傾斜制限活性化関数を超えて拡張する。
提案した解析は一般であり、$ell$ および $ell_infty$ Lipschitz 境界を推定するための統一的なアプローチを提供する。
論文 参考訳(メタデータ) (2024-01-25T09:23:31Z) - Rethinking Lipschitz Neural Networks for Certified L-infinity Robustness [33.72713778392896]
我々はブール関数を表す新しい視点から、認証された$ell_infty$について研究する。
我々は、先行研究を一般化する統一的なリプシッツネットワークを開発し、効率的に訓練できる実用的なバージョンを設計する。
論文 参考訳(メタデータ) (2022-10-04T17:55:27Z) - Training Certifiably Robust Neural Networks with Efficient Local
Lipschitz Bounds [99.23098204458336]
認証された堅牢性は、安全クリティカルなアプリケーションにおいて、ディープニューラルネットワークにとって望ましい性質である。
提案手法は,MNISTおよびTinyNetデータセットにおける最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-11-02T06:44:10Z) - Scalable Lipschitz Residual Networks with Convex Potential Flows [120.27516256281359]
残差ネットワーク勾配流における凸ポテンシャルを用いることで,1ドルのLipschitz変換が組み込まれていることを示す。
CIFAR-10の包括的な実験は、アーキテクチャのスケーラビリティと、証明可能な防御に$ell$のアプローチの利点を実証している。
論文 参考訳(メタデータ) (2021-10-25T07:12:53Z) - LipBaB: Computing exact Lipschitz constant of ReLU networks [0.0]
LipBaBは、ディープニューラルネットワークのローカルLipschitz定数の認定境界を計算するためのフレームワークです。
このアルゴリズムは任意の p-ノルムに対するリプシッツ定数の正確な計算を提供することができる。
論文 参考訳(メタデータ) (2021-05-12T08:06:11Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - On Lipschitz Regularization of Convolutional Layers using Toeplitz
Matrix Theory [77.18089185140767]
リプシッツ正則性は現代のディープラーニングの重要な性質として確立されている。
ニューラルネットワークのリプシッツ定数の正確な値を計算することはNPハードであることが知られている。
より厳密で計算が容易な畳み込み層に対する新しい上限を導入する。
論文 参考訳(メタデータ) (2020-06-15T13:23:34Z) - Approximating Lipschitz continuous functions with GroupSort neural
networks [3.416170716497814]
近年の敵攻撃とワッサーシュタインGANはリプシッツ定数が制限されたニューラルネットワークの使用を提唱している。
特に、これらのネットワークが任意のリプシッツ連続部分線型関数をどのように表現できるかを示す。
また、それらがリプシッツ連続函数の近似に適しており、深さと大きさの両方の上限を示すことを証明する。
論文 参考訳(メタデータ) (2020-06-09T13:37:43Z) - Exactly Computing the Local Lipschitz Constant of ReLU Networks [98.43114280459271]
ニューラルネットワークの局所リプシッツ定数は、堅牢性、一般化、公正性評価に有用な指標である。
ReLUネットワークのリプシッツ定数を推定するために, 強い不適合性を示す。
このアルゴリズムを用いて、競合するリプシッツ推定器の密度と正規化トレーニングがリプシッツ定数に与える影響を評価する。
論文 参考訳(メタデータ) (2020-03-02T22:15:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。