論文の概要: Efficient Proximal Mapping of the 1-path-norm of Shallow Networks
- arxiv url: http://arxiv.org/abs/2007.01003v2
- Date: Wed, 15 Jul 2020 09:40:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 13:42:11.156684
- Title: Efficient Proximal Mapping of the 1-path-norm of Shallow Networks
- Title(参考訳): 浅層ネットワークの1パスノルムの効率的な近位写像
- Authors: Fabian Latorre, Paul Rolland, Nadav Hallak, Volkan Cevher
- Abstract要約: 1-path-norm ニューラルネットワークの2つの重要な特性を示す。
第一に、その非滑らかさと非正確さにもかかわらず、閉じた近位作用素を効率的に計算することができる。
第二に、活性化関数が微分可能であれば、リプシッツ定数の上界を与える。
- 参考スコア(独自算出の注目度): 47.20962674178505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrate two new important properties of the 1-path-norm of shallow
neural networks. First, despite its non-smoothness and non-convexity it allows
a closed form proximal operator which can be efficiently computed, allowing the
use of stochastic proximal-gradient-type methods for regularized empirical risk
minimization. Second, when the activation functions is differentiable, it
provides an upper bound on the Lipschitz constant of the network. Such bound is
tighter than the trivial layer-wise product of Lipschitz constants, motivating
its use for training networks robust to adversarial perturbations. In practical
experiments we illustrate the advantages of using the proximal mapping and we
compare the robustness-accuracy trade-off induced by the 1-path-norm, L1-norm
and layer-wise constraints on the Lipschitz constant (Parseval networks).
- Abstract(参考訳): 浅層ニューラルネットワークの1パスノルムの2つの新しい重要な特性を示す。
第一に、その非滑らかさと非凸性にもかかわらず、効率的に計算できる閉形式近位作用素を許容し、正規化された経験的リスク最小化のために確率的近位勾配型手法を使用できる。
第二に、活性化関数が微分可能であれば、ネットワークのリプシッツ定数の上界を与える。
このような境界は、リプシッツ定数の自明な階層的積よりも厳密であり、逆摂動に頑健なトレーニングネットワークへの使用を動機付けている。
実際の実験では、近位写像を用いる利点を説明し、1-パスノルム、l1-ノルム、およびリプシッツ定数(ばらつきネットワーク)の層間制約によって引き起こされるロバストネス・精度トレードオフを比較する。
関連論文リスト
- Hidden Synergy: $L_1$ Weight Normalization and 1-Path-Norm Regularization [0.0]
PSiLON Netの設計が1-path-normを大幅に単純化することを示す。
そこで本研究では,訓練の最終段階において,正確な空間性を実現するためのプルーニング手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T21:25:25Z) - Efficient Bound of Lipschitz Constant for Convolutional Layers by Gram
Iteration [122.51142131506639]
循環行列理論を用いて畳み込み層のスペクトルノルムに対して、精密で高速で微分可能な上界を導入する。
提案手法は, 精度, 計算コスト, スケーラビリティの観点から, 他の最先端手法よりも優れていることを示す。
これは畳み込みニューラルネットワークのリプシッツ正則化に非常に効果的であり、並行アプローチに対する競合的な結果である。
論文 参考訳(メタデータ) (2023-05-25T15:32:21Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Improving Lipschitz-Constrained Neural Networks by Learning Activation
Functions [14.378778606939665]
リプシッツ制約ニューラルネットワークは、制約のないニューラルネットワークよりもいくつかの利点があり、様々な問題に適用できる。
学習可能な1-Lipschitz線形スプラインを持つニューラルネットワークはより表現力が高いことが知られている。
シミュレーション実験により,既存の1-Lipschitzニューラルアーキテクチャと比較した。
論文 参考訳(メタデータ) (2022-10-28T15:56:55Z) - Efficiently Computing Local Lipschitz Constants of Neural Networks via
Bound Propagation [79.13041340708395]
リプシッツ定数は、堅牢性、公正性、一般化など、ニューラルネットワークの多くの性質と結びついている。
既存のリプシッツ定数の計算法は、相対的に緩い上界を生成するか、小さなネットワークに制限される。
ニューラルネットワークの局所リプシッツ定数$ell_infty$をクラーク・ヤコビアンのノルムを強く上向きに上向きに計算する効率的なフレームワークを開発する。
論文 参考訳(メタデータ) (2022-10-13T22:23:22Z) - Rethinking Lipschitz Neural Networks for Certified L-infinity Robustness [33.72713778392896]
我々はブール関数を表す新しい視点から、認証された$ell_infty$について研究する。
我々は、先行研究を一般化する統一的なリプシッツネットワークを開発し、効率的に訓練できる実用的なバージョンを設計する。
論文 参考訳(メタデータ) (2022-10-04T17:55:27Z) - Training Certifiably Robust Neural Networks with Efficient Local
Lipschitz Bounds [99.23098204458336]
認証された堅牢性は、安全クリティカルなアプリケーションにおいて、ディープニューラルネットワークにとって望ましい性質である。
提案手法は,MNISTおよびTinyNetデータセットにおける最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-11-02T06:44:10Z) - The Many Faces of 1-Lipschitz Neural Networks [1.911678487931003]
1-Lipschitzニューラルネットワークは、古典的なものと同じくらい表現力のある任意の困難なフロンティアに適合できることを示しています。
また,関東ロビッチ・ルビンシュタイン双対性理論の正規化による1-Lipschitzネットワークの分類と最適輸送の関係についても検討した。
論文 参考訳(メタデータ) (2021-04-11T20:31:32Z) - On Lipschitz Regularization of Convolutional Layers using Toeplitz
Matrix Theory [77.18089185140767]
リプシッツ正則性は現代のディープラーニングの重要な性質として確立されている。
ニューラルネットワークのリプシッツ定数の正確な値を計算することはNPハードであることが知られている。
より厳密で計算が容易な畳み込み層に対する新しい上限を導入する。
論文 参考訳(メタデータ) (2020-06-15T13:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。