論文の概要: Scalable Lipschitz Residual Networks with Convex Potential Flows
- arxiv url: http://arxiv.org/abs/2110.12690v1
- Date: Mon, 25 Oct 2021 07:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 03:23:21.648424
- Title: Scalable Lipschitz Residual Networks with Convex Potential Flows
- Title(参考訳): 凸ポテンシャル流を有するスケーラブルなリプシッツ残差ネットワーク
- Authors: Laurent Meunier, Blaise Delattre, Alexandre Araujo, Alexandre Allauzen
- Abstract要約: 残差ネットワーク勾配流における凸ポテンシャルを用いることで,1ドルのLipschitz変換が組み込まれていることを示す。
CIFAR-10の包括的な実験は、アーキテクチャのスケーラビリティと、証明可能な防御に$ell$のアプローチの利点を実証している。
- 参考スコア(独自算出の注目度): 120.27516256281359
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Lipschitz constant of neural networks has been established as a key
property to enforce the robustness of neural networks to adversarial examples.
However, recent attempts to build $1$-Lipschitz Neural Networks have all shown
limitations and robustness have to be traded for accuracy and scalability or
vice versa. In this work, we first show that using convex potentials in a
residual network gradient flow provides a built-in $1$-Lipschitz
transformation. From this insight, we leverage the work on Input Convex Neural
Networks to parametrize efficient layers with this property. A comprehensive
set of experiments on CIFAR-10 demonstrates the scalability of our architecture
and the benefit of our approach for $\ell_2$ provable defenses. Indeed, we
train very deep and wide neural networks (up to $1000$ layers) and reach
state-of-the-art results in terms of standard and certified accuracy, along
with empirical robustness, in comparison with other $1$-Lipschitz
architectures.
- Abstract(参考訳): ニューラルネットワークのリプシッツ定数は、敵の例に対するニューラルネットワークの堅牢性を強制する鍵となる性質として確立されている。
しかし、最近1ドルのLipschitz Neural Networksを構築しようとする試みは、いずれも制限を示しており、堅牢性は正確性とスケーラビリティのために交換する必要がある。
この研究において、残留ネットワーク勾配流における凸ポテンシャルの使用は、組込み1ドルLipschitz変換を提供することを示す。
この知見から,入力凸ニューラルネットワークの研究を活用し,この特性で効率的な層をパラメトリゼーションする。
cifar-10に関する包括的な実験のセットは、アーキテクチャのスケーラビリティと、$\ell_2$ provable defenseに対するアプローチのメリットを示しています。
実際、私たちは非常に深く広いニューラルネットワーク(最大1000ドルの層)をトレーニングし、標準および認定された精度、そして実証的な堅牢性の観点から、他の1ドルのLipschitzアーキテクチャと比較して、最先端の結果に到達する。
関連論文リスト
- Kronecker-Factored Approximate Curvature for Modern Neural Network
Architectures [85.76673783330334]
線形重み付け層の2つの異なる設定がクロネッカー型近似曲率(K-FAC)の2つの風味を動機付けている
重み付けをそれぞれ設定したディープ・リニア・ネットワークに対して正確であることを示す。
グラフニューラルネットワークと視覚変換器の両方をトレーニングするために、これらの2つのK-FACの違いをほとんど観測しない。
論文 参考訳(メタデータ) (2023-11-01T16:37:00Z) - A Unified Algebraic Perspective on Lipschitz Neural Networks [88.14073994459586]
本稿では,様々なタイプの1-Lipschitzニューラルネットワークを統一する新しい視点を提案する。
そこで本研究では,SDP(Common semidefinite Programming)条件の解析解を求めることによって,既存の多くの手法を導出し,一般化することができることを示す。
SDPベースのLipschitz Layers (SLL) と呼ばれる我々のアプローチは、非自明で効率的な凸ポテンシャル層の一般化を設計できる。
論文 参考訳(メタデータ) (2023-03-06T14:31:09Z) - Asymmetric Certified Robustness via Feature-Convex Neural Networks [11.605936648692543]
ICNNを敵ネットワークに一般化できることを示す。
実験により、ネットワークはどの競争ベースラインよりもはるかに効率的であることが示されている。
論文 参考訳(メタデータ) (2023-02-03T19:17:28Z) - Improved techniques for deterministic l2 robustness [63.34032156196848]
畳み込みニューラルネットワーク(CNN)を$l_2$ノルムの下で厳密な1-Lipschitz制約で訓練することは、対向的堅牢性、解釈可能な勾配、安定した訓練に有用である。
我々は,最後の線形層を1重層に置き換えることで,1-Lipschitz CNNのロバスト性を証明する手法を提案する。
我々は,CIFAR-10およびCIFAR-100における標準および証明可能な堅牢な精度の最先端化を図る。
論文 参考訳(メタデータ) (2022-11-15T19:10:12Z) - Rethinking Lipschitz Neural Networks for Certified L-infinity Robustness [33.72713778392896]
我々はブール関数を表す新しい視点から、認証された$ell_infty$について研究する。
我々は、先行研究を一般化する統一的なリプシッツネットワークを開発し、効率的に訓練できる実用的なバージョンを設計する。
論文 参考訳(メタデータ) (2022-10-04T17:55:27Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Lipschitz Bound Analysis of Neural Networks [0.0]
リプシッツ境界推定は、ディープニューラルネットワークを正則化し、敵の攻撃に対して堅牢にする効果的な方法である。
本稿では、畳み込みニューラルネットワーク(CNN)のための非自明なリプシッツ境界証明書を得る際の大きなギャップについて述べる。
また,畳み込みニューラルネットワーク(CNN)を完全連結ネットワークに変換するために,畳み込み層やToeplitz行列の展開も可能であることを示す。
論文 参考訳(メタデータ) (2022-07-14T23:40:22Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Towards Certifying $\ell_\infty$ Robustness using Neural Networks with
$\ell_\infty$-dist Neurons [27.815886593870076]
我々は本質的に$ell_infty$摂動に抵抗する原理的ニューラルネットワークを開発した。
一般的に使用されているデータセット上で、最先端のパフォーマンスを一貫して達成します。
論文 参考訳(メタデータ) (2021-02-10T10:03:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。