論文の概要: LipBaB: Computing exact Lipschitz constant of ReLU networks
- arxiv url: http://arxiv.org/abs/2105.05495v1
- Date: Wed, 12 May 2021 08:06:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 22:32:22.274091
- Title: LipBaB: Computing exact Lipschitz constant of ReLU networks
- Title(参考訳): LipBaB: ReLUネットワークの正確なリプシッツ定数の計算
- Authors: Aritra Bhowmick, Meenakshi D'Souza, G. Srinivasa Raghavan
- Abstract要約: LipBaBは、ディープニューラルネットワークのローカルLipschitz定数の認定境界を計算するためのフレームワークです。
このアルゴリズムは任意の p-ノルムに対するリプシッツ定数の正確な計算を提供することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Lipschitz constant of neural networks plays an important role in several
contexts of deep learning ranging from robustness certification and
regularization to stability analysis of systems with neural network
controllers. Obtaining tight bounds of the Lipschitz constant is therefore
important. We introduce LipBaB, a branch and bound framework to compute
certified bounds of the local Lipschitz constant of deep neural networks with
ReLU activation functions up to any desired precision. We achieve this by
bounding the norm of the Jacobians, corresponding to different activation
patterns of the network caused within the input domain. Our algorithm can
provide provably exact computation of the Lipschitz constant for any p-norm.
- Abstract(参考訳): ニューラルネットワークのリプシッツ定数は、堅牢性証明から正規化からニューラルネットワークコントローラを持つシステムの安定性解析まで、ディープラーニングのいくつかの文脈において重要な役割を果たす。
したがって、リプシッツ定数の厳密な境界を持つことが重要である。
本稿では、ReLUアクティベーション機能を持つディープニューラルネットワークの局所リプシッツ定数の証明済み境界を任意の精度で計算するための分岐およびバウンドフレームワークであるLipBaBを紹介する。
我々は、入力領域内で生じるネットワークの異なる活性化パターンに対応するジャコビアンのノルムにバインドすることでこれを達成する。
このアルゴリズムは任意の p-ノルムに対するリプシッツ定数の正確な計算を提供することができる。
関連論文リスト
- MIQCQP reformulation of the ReLU neural networks Lipschitz constant
estimation problem [0.0]
ニューラルネットワークのリプシッツ推定問題に対する2次拘束型MIP定式化を提案する。
これらの問題の解はリプシッツ定数の下限と上限を与える。
我々は、それらが正確なリプシッツ定数と一致するときの条件を詳述する。
論文 参考訳(メタデータ) (2024-02-02T07:55:42Z) - Lipschitz Continuity Retained Binary Neural Network [52.17734681659175]
我々は,BNNのモデルロバスト性を定義するための厳密な基準として,リプシッツ連続性を導入する。
次に、モデルロバスト性を改善するための正規化項としてリプシッツ連続性を維持することを提案する。
実験により,我々のBNN固有の正規化手法は,BNNの堅牢性を効果的に強化できることが証明された。
論文 参考訳(メタデータ) (2022-07-13T22:55:04Z) - Chordal Sparsity for Lipschitz Constant Estimation of Deep Neural
Networks [77.82638674792292]
ニューラルネットワークのリプシッツ定数は、画像分類の堅牢性、コントローラ設計の安全性、トレーニングデータを超えた一般化性を保証する。
リプシッツ定数の計算はNPハードであるため、リプシッツ定数を推定する手法はスケーラビリティと精度のトレードオフをナビゲートする必要がある。
本研究では,LipSDPと呼ばれる半定値プログラミング手法のスケーラビリティフロンティアを大幅に推し進め,精度の損失をゼロにする。
論文 参考訳(メタデータ) (2022-04-02T11:57:52Z) - Training Certifiably Robust Neural Networks with Efficient Local
Lipschitz Bounds [99.23098204458336]
認証された堅牢性は、安全クリティカルなアプリケーションにおいて、ディープニューラルネットワークにとって望ましい性質である。
提案手法は,MNISTおよびTinyNetデータセットにおける最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-11-02T06:44:10Z) - On Lipschitz Regularization of Convolutional Layers using Toeplitz
Matrix Theory [77.18089185140767]
リプシッツ正則性は現代のディープラーニングの重要な性質として確立されている。
ニューラルネットワークのリプシッツ定数の正確な値を計算することはNPハードであることが知られている。
より厳密で計算が容易な畳み込み層に対する新しい上限を導入する。
論文 参考訳(メタデータ) (2020-06-15T13:23:34Z) - The Lipschitz Constant of Self-Attention [27.61634862685452]
ニューラルネットワークのリプシッツ定数は、ディープラーニングにおいて様々な文脈で研究されている。
配列モデリングに広く用いられている非線形ニューラルネットワークモジュールである自己アテンションのリプシッツ定数について検討する。
論文 参考訳(メタデータ) (2020-06-08T16:08:38Z) - Lipschitz constant estimation of Neural Networks via sparse polynomial
optimization [47.596834444042685]
LiPoptは、ニューラルネットワークのリプシッツ定数上のより厳密な上限を計算するためのフレームワークである。
ネットワークの疎結合性を利用して、ネットワークの複雑さを大幅に軽減する方法を示す。
ランダムな重みを持つネットワークと、MNISTで訓練されたネットワークで実験を行う。
論文 参考訳(メタデータ) (2020-04-18T18:55:02Z) - Exactly Computing the Local Lipschitz Constant of ReLU Networks [98.43114280459271]
ニューラルネットワークの局所リプシッツ定数は、堅牢性、一般化、公正性評価に有用な指標である。
ReLUネットワークのリプシッツ定数を推定するために, 強い不適合性を示す。
このアルゴリズムを用いて、競合するリプシッツ推定器の密度と正規化トレーニングがリプシッツ定数に与える影響を評価する。
論文 参考訳(メタデータ) (2020-03-02T22:15:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。