論文の概要: Convex Geometry and Duality of Over-parameterized Neural Networks
- arxiv url: http://arxiv.org/abs/2002.11219v4
- Date: Tue, 31 Aug 2021 02:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 21:02:25.693789
- Title: Convex Geometry and Duality of Over-parameterized Neural Networks
- Title(参考訳): 過パラメータニューラルネットワークの凸形状と双対性
- Authors: Tolga Ergen, Mert Pilanci
- Abstract要約: 有限幅2層ReLUネットワークの解析のための凸解析手法を開発した。
正規化学習問題に対する最適解が凸集合の極点として特徴づけられることを示す。
高次元では、トレーニング問題は無限に多くの制約を持つ有限次元凸問題としてキャストできることが示される。
- 参考スコア(独自算出の注目度): 70.15611146583068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a convex analytic approach to analyze finite width two-layer ReLU
networks. We first prove that an optimal solution to the regularized training
problem can be characterized as extreme points of a convex set, where simple
solutions are encouraged via its convex geometrical properties. We then
leverage this characterization to show that an optimal set of parameters yield
linear spline interpolation for regression problems involving one dimensional
or rank-one data. We also characterize the classification decision regions in
terms of a kernel matrix and minimum $\ell_1$-norm solutions. This is in
contrast to Neural Tangent Kernel which is unable to explain predictions of
finite width networks. Our convex geometric characterization also provides
intuitive explanations of hidden neurons as auto-encoders. In higher
dimensions, we show that the training problem can be cast as a finite
dimensional convex problem with infinitely many constraints. Then, we apply
certain convex relaxations and introduce a cutting-plane algorithm to globally
optimize the network. We further analyze the exactness of the relaxations to
provide conditions for the convergence to a global optimum. Our analysis also
shows that optimal network parameters can be also characterized as
interpretable closed-form formulas in some practically relevant special cases.
- Abstract(参考訳): 有限幅2層ReLUネットワークの解析のための凸解析手法を開発した。
まず、正則化トレーニング問題の最適解を凸集合の極点として特徴づけることができることを証明し、単純解はその凸幾何学的性質を通じて奨励される。
この特徴を利用して、パラメータの最適セットが1次元またはランクワンデータを含む回帰問題に対して線形スプライン補間をもたらすことを示す。
また,カーネル行列と最小$\ell_1$-norm 解を用いて分類決定領域を特徴付ける。
これは、有限幅ネットワークの予測を説明できない神経接核とは対照的である。
我々の凸幾何学的特徴は、隠れたニューロンをオートエンコーダとして直感的に説明できる。
高次元では、トレーニング問題は無限に多くの制約を持つ有限次元凸問題としてキャストできることを示す。
そして,ある種の凸緩和を適用し,ネットワークをグローバルに最適化するための切削平面アルゴリズムを導入する。
さらに、この緩和の正確性を分析し、グローバルな最適点への収束条件を提供する。
また,本解析により,ネットワークパラメータを解釈可能な閉形式式として特徴づけることもできることを示した。
関連論文リスト
- Convergence of Implicit Gradient Descent for Training Two-Layer Physics-Informed Neural Networks [3.680127959836384]
暗黙の勾配降下(IGD)は、ある種のマルチスケール問題を扱う場合、共通勾配降下(GD)よりも優れる。
IGDは線形収束速度で大域的に最適解を収束することを示す。
論文 参考訳(メタデータ) (2024-07-03T06:10:41Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - From Complexity to Clarity: Analytical Expressions of Deep Neural Network Weights via Clifford's Geometric Algebra and Convexity [54.01594785269913]
我々は,標準正規化損失のトレーニングにおいて,深部ReLUニューラルネットワークの最適重みがトレーニングサンプルのウェッジ積によって与えられることを示した。
トレーニング問題は、トレーニングデータセットの幾何学的構造をエンコードするウェッジ製品機能よりも凸最適化に還元される。
論文 参考訳(メタデータ) (2023-09-28T15:19:30Z) - Path Regularization: A Convexity and Sparsity Inducing Regularization
for Parallel ReLU Networks [75.33431791218302]
本稿では,ディープニューラルネットワークのトレーニング問題について検討し,最適化環境に隠された凸性を明らかにするための解析的アプローチを提案する。
我々は、標準のディープ・ネットワークとResNetを特別なケースとして含む、ディープ・パラレルなReLUネットワークアーキテクチャについて検討する。
論文 参考訳(メタデータ) (2021-10-18T18:00:36Z) - Global Optimality Beyond Two Layers: Training Deep ReLU Networks via
Convex Programs [39.799125462526234]
我々は凸最適化のレンズを通して隠れ正規化機構を明らかにするための新しい統一フレームワークを開発した。
我々は、合成データセットと実データセットの両方を含む実験を通して、理論的結果を数値的に検証する。
論文 参考訳(メタデータ) (2021-10-11T18:00:30Z) - The Hidden Convex Optimization Landscape of Two-Layer ReLU Neural
Networks: an Exact Characterization of the Optimal Solutions [51.60996023961886]
コーン制約のある凸最適化プログラムを解くことにより,グローバルな2層ReLUニューラルネットワークの探索が可能であることを示す。
我々の分析は新しく、全ての最適解を特徴づけ、最近、ニューラルネットワークのトレーニングを凸空間に持ち上げるために使われた双対性に基づく分析を活用できない。
論文 参考訳(メタデータ) (2020-06-10T15:38:30Z) - Revealing the Structure of Deep Neural Networks via Convex Duality [70.15611146583068]
我々は,正規化深層ニューラルネットワーク(DNN)について検討し,隠蔽層の構造を特徴付ける凸解析フレームワークを導入する。
正規正規化学習問題に対する最適隠蔽層重みの集合が凸集合の極点として明確に見出されることを示す。
ホワイトデータを持つ深部ReLUネットワークに同じ特徴を応用し、同じ重み付けが成り立つことを示す。
論文 参考訳(メタデータ) (2020-02-22T21:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。