論文の概要: Exactly Computing the Local Lipschitz Constant of ReLU Networks
- arxiv url: http://arxiv.org/abs/2003.01219v2
- Date: Mon, 11 Jan 2021 01:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 04:29:58.146080
- Title: Exactly Computing the Local Lipschitz Constant of ReLU Networks
- Title(参考訳): ReLUネットワークの局所リプシッツ定数を正確に計算する
- Authors: Matt Jordan, Alexandros G. Dimakis
- Abstract要約: ニューラルネットワークの局所リプシッツ定数は、堅牢性、一般化、公正性評価に有用な指標である。
ReLUネットワークのリプシッツ定数を推定するために, 強い不適合性を示す。
このアルゴリズムを用いて、競合するリプシッツ推定器の密度と正規化トレーニングがリプシッツ定数に与える影響を評価する。
- 参考スコア(独自算出の注目度): 98.43114280459271
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The local Lipschitz constant of a neural network is a useful metric with
applications in robustness, generalization, and fairness evaluation. We provide
novel analytic results relating the local Lipschitz constant of nonsmooth
vector-valued functions to a maximization over the norm of the generalized
Jacobian. We present a sufficient condition for which backpropagation always
returns an element of the generalized Jacobian, and reframe the problem over
this broad class of functions. We show strong inapproximability results for
estimating Lipschitz constants of ReLU networks, and then formulate an
algorithm to compute these quantities exactly. We leverage this algorithm to
evaluate the tightness of competing Lipschitz estimators and the effects of
regularized training on the Lipschitz constant.
- Abstract(参考訳): ニューラルネットワークの局所リプシッツ定数は、ロバスト性、一般化、公平性評価の応用において有用な指標である。
非滑らかベクトル値関数の局所リプシッツ定数を一般化ヤコビアンのノルム上の最大化と関係付ける新しい解析結果を提供する。
バックプロパゲーションが常に一般化されたヤコビアンの元を返却する十分条件を示し、この広範な函数のクラスに問題を再設定する。
ReLUネットワークのリプシッツ定数を推定するための強い不近似結果を示し、それらを正確に計算するアルゴリズムを定式化する。
このアルゴリズムを用いて,競合するリプシッツ推定器のタイトネスと正規化トレーニングがリプシッツ定数に及ぼす影響を評価する。
関連論文リスト
- MIQCQP reformulation of the ReLU neural networks Lipschitz constant
estimation problem [0.0]
ニューラルネットワークのリプシッツ推定問題に対する2次拘束型MIP定式化を提案する。
これらの問題の解はリプシッツ定数の下限と上限を与える。
我々は、それらが正確なリプシッツ定数と一致するときの条件を詳述する。
論文 参考訳(メタデータ) (2024-02-02T07:55:42Z) - Lipschitz constant estimation for 1D convolutional neural networks [0.0]
本稿では,1次元畳み込みニューラルネットワーク(CNN)のリプシッツ定数推定法を提案する。
特に, 畳み込み層, プール層および完全連結層の分散特性を解析した。
論文 参考訳(メタデータ) (2022-11-28T12:09:06Z) - Lipschitz Continuity Retained Binary Neural Network [52.17734681659175]
我々は,BNNのモデルロバスト性を定義するための厳密な基準として,リプシッツ連続性を導入する。
次に、モデルロバスト性を改善するための正規化項としてリプシッツ連続性を維持することを提案する。
実験により,我々のBNN固有の正規化手法は,BNNの堅牢性を効果的に強化できることが証明された。
論文 参考訳(メタデータ) (2022-07-13T22:55:04Z) - Chordal Sparsity for Lipschitz Constant Estimation of Deep Neural
Networks [77.82638674792292]
ニューラルネットワークのリプシッツ定数は、画像分類の堅牢性、コントローラ設計の安全性、トレーニングデータを超えた一般化性を保証する。
リプシッツ定数の計算はNPハードであるため、リプシッツ定数を推定する手法はスケーラビリティと精度のトレードオフをナビゲートする必要がある。
本研究では,LipSDPと呼ばれる半定値プログラミング手法のスケーラビリティフロンティアを大幅に推し進め,精度の損失をゼロにする。
論文 参考訳(メタデータ) (2022-04-02T11:57:52Z) - Training Certifiably Robust Neural Networks with Efficient Local
Lipschitz Bounds [99.23098204458336]
認証された堅牢性は、安全クリティカルなアプリケーションにおいて、ディープニューラルネットワークにとって望ましい性質である。
提案手法は,MNISTおよびTinyNetデータセットにおける最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-11-02T06:44:10Z) - LipBaB: Computing exact Lipschitz constant of ReLU networks [0.0]
LipBaBは、ディープニューラルネットワークのローカルLipschitz定数の認定境界を計算するためのフレームワークです。
このアルゴリズムは任意の p-ノルムに対するリプシッツ定数の正確な計算を提供することができる。
論文 参考訳(メタデータ) (2021-05-12T08:06:11Z) - Analytical bounds on the local Lipschitz constants of ReLU networks [0.0]
我々は、ReLU, affine-ReLU, max pooling functionに対してリプシッツ定数と境界を導出した。
提案手法は,AlexNet や VGG-16 などの大規模ネットワークに対する最小対向摂動における最大の境界を生成する。
論文 参考訳(メタデータ) (2021-04-29T21:57:47Z) - On Lipschitz Regularization of Convolutional Layers using Toeplitz
Matrix Theory [77.18089185140767]
リプシッツ正則性は現代のディープラーニングの重要な性質として確立されている。
ニューラルネットワークのリプシッツ定数の正確な値を計算することはNPハードであることが知られている。
より厳密で計算が容易な畳み込み層に対する新しい上限を導入する。
論文 参考訳(メタデータ) (2020-06-15T13:23:34Z) - Lipschitz constant estimation of Neural Networks via sparse polynomial
optimization [47.596834444042685]
LiPoptは、ニューラルネットワークのリプシッツ定数上のより厳密な上限を計算するためのフレームワークである。
ネットワークの疎結合性を利用して、ネットワークの複雑さを大幅に軽減する方法を示す。
ランダムな重みを持つネットワークと、MNISTで訓練されたネットワークで実験を行う。
論文 参考訳(メタデータ) (2020-04-18T18:55:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。