論文の概要: Path Regularization: A Convexity and Sparsity Inducing Regularization
for Parallel ReLU Networks
- arxiv url: http://arxiv.org/abs/2110.09548v4
- Date: Tue, 26 Sep 2023 01:33:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 18:46:01.154345
- Title: Path Regularization: A Convexity and Sparsity Inducing Regularization
for Parallel ReLU Networks
- Title(参考訳): 経路正規化:並列ReLUネットワークにおける凸性と疎結合による正規化
- Authors: Tolga Ergen, Mert Pilanci
- Abstract要約: 本稿では,ディープニューラルネットワークのトレーニング問題について検討し,最適化環境に隠された凸性を明らかにするための解析的アプローチを提案する。
我々は、標準のディープ・ネットワークとResNetを特別なケースとして含む、ディープ・パラレルなReLUネットワークアーキテクチャについて検討する。
- 参考スコア(独自算出の注目度): 75.33431791218302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding the fundamental principles behind the success of deep neural
networks is one of the most important open questions in the current literature.
To this end, we study the training problem of deep neural networks and
introduce an analytic approach to unveil hidden convexity in the optimization
landscape. We consider a deep parallel ReLU network architecture, which also
includes standard deep networks and ResNets as its special cases. We then show
that pathwise regularized training problems can be represented as an exact
convex optimization problem. We further prove that the equivalent convex
problem is regularized via a group sparsity inducing norm. Thus, a path
regularized parallel ReLU network can be viewed as a parsimonious convex model
in high dimensions. More importantly, since the original training problem may
not be trainable in polynomial-time, we propose an approximate algorithm with a
fully polynomial-time complexity in all data dimensions. Then, we prove strong
global optimality guarantees for this algorithm. We also provide experiments
corroborating our theory.
- Abstract(参考訳): ディープニューラルネットワークの成功の背後にある基本的な原則を理解することは、現在の文献で最も重要なオープンな質問の1つである。
そこで本研究では,深層ニューラルネットワークのトレーニング問題を考察し,最適化環境に隠された凸性を明らかにするための解析的アプローチを提案する。
我々は、標準のディープネットワークとresnetを特別なケースとして含む、ディープ・パラレルなreluネットワークアーキテクチャを考察する。
次に,パスワイズ正規化学習問題を凸最適化問題として表現できることを示す。
さらに、同値凸問題は群疎性誘導ノルムによって正規化されることも証明する。
したがって、経路正規化された並列ReLUネットワークは、高次元の擬似凸モデルと見なすことができる。
さらに重要なことは、元のトレーニング問題は多項式時間では訓練できないため、すべてのデータ次元で完全に多項式時間複雑性を持つ近似アルゴリズムを提案することである。
そして,このアルゴリズムのグローバルな最適性を保証する。
理論を裏付ける実験も行っています。
関連論文リスト
- Does a sparse ReLU network training problem always admit an optimum? [0.0]
最適解の存在は、特にスパースReLUニューラルネットワークの文脈において、必ずしも保証されないことを示す。
特に,特定の疎度パターンを持つディープネットワークにおける最適化問題は,必ずしも最適パラメータを持つとは限らないことを示す。
論文 参考訳(メタデータ) (2023-06-05T08:01:50Z) - Optimal Sets and Solution Paths of ReLU Networks [56.40911684005949]
最適なReLUネットワークの集合を特徴付ける分析フレームワークを開発した。
我々は、ReLUネットワークのニューラル化を継続する条件を確立し、ReLUネットワークに対する感度結果を開発する。
論文 参考訳(メタデータ) (2023-05-31T18:48:16Z) - Learning Non-Vacuous Generalization Bounds from Optimization [8.294831479902658]
最適化の観点からは、単純だが空でない一般化を示す。
我々は、勾配アルゴリズムによってアクセスされた仮説セットが本質的にフラクタル的であることを利用して、この目標を達成する。
数値解析により,現代のニューラルネットワークにおいて,本手法が有意な一般化を保証することが実証された。
論文 参考訳(メタデータ) (2022-06-09T08:59:46Z) - Imbedding Deep Neural Networks [0.0]
ニューラルODEのような連続深度ニューラルネットワークは、非線形ベクトル値の最適制御問題の観点から、残留ニューラルネットワークの理解を再燃させた。
本稿では,ネットワークの深さを基本変数とする新しい手法を提案する。
論文 参考訳(メタデータ) (2022-01-31T22:00:41Z) - Subquadratic Overparameterization for Shallow Neural Networks [60.721751363271146]
私たちは、標準的なニューラルトレーニング戦略を採用することができる分析フレームワークを提供しています。
我々は、Desiderata viaak-Lojasiewicz, smoothness, and standard assumptionsを達成する。
論文 参考訳(メタデータ) (2021-11-02T20:24:01Z) - Global Optimality Beyond Two Layers: Training Deep ReLU Networks via
Convex Programs [39.799125462526234]
我々は凸最適化のレンズを通して隠れ正規化機構を明らかにするための新しい統一フレームワークを開発した。
我々は、合成データセットと実データセットの両方を含む実験を通して、理論的結果を数値的に検証する。
論文 参考訳(メタデータ) (2021-10-11T18:00:30Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - The Hidden Convex Optimization Landscape of Two-Layer ReLU Neural
Networks: an Exact Characterization of the Optimal Solutions [51.60996023961886]
コーン制約のある凸最適化プログラムを解くことにより,グローバルな2層ReLUニューラルネットワークの探索が可能であることを示す。
我々の分析は新しく、全ての最適解を特徴づけ、最近、ニューラルネットワークのトレーニングを凸空間に持ち上げるために使われた双対性に基づく分析を活用できない。
論文 参考訳(メタデータ) (2020-06-10T15:38:30Z) - Convex Geometry and Duality of Over-parameterized Neural Networks [70.15611146583068]
有限幅2層ReLUネットワークの解析のための凸解析手法を開発した。
正規化学習問題に対する最適解が凸集合の極点として特徴づけられることを示す。
高次元では、トレーニング問題は無限に多くの制約を持つ有限次元凸問題としてキャストできることが示される。
論文 参考訳(メタデータ) (2020-02-25T23:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。