論文の概要: Optimal Sets and Solution Paths of ReLU Networks
- arxiv url: http://arxiv.org/abs/2306.00119v2
- Date: Fri, 19 Jan 2024 18:30:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 19:16:44.708502
- Title: Optimal Sets and Solution Paths of ReLU Networks
- Title(参考訳): ReLUネットワークの最適集合と解経路
- Authors: Aaron Mishkin, Mert Pilanci
- Abstract要約: 最適なReLUネットワークの集合を特徴付ける分析フレームワークを開発した。
我々は、ReLUネットワークのニューラル化を継続する条件を確立し、ReLUネットワークに対する感度結果を開発する。
- 参考スコア(独自算出の注目度): 56.40911684005949
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop an analytical framework to characterize the set of optimal ReLU
neural networks by reformulating the non-convex training problem as a convex
program. We show that the global optima of the convex parameterization are
given by a polyhedral set and then extend this characterization to the optimal
set of the non-convex training objective. Since all stationary points of the
ReLU training problem can be represented as optima of sub-sampled convex
programs, our work provides a general expression for all critical points of the
non-convex objective. We then leverage our results to provide an optimal
pruning algorithm for computing minimal networks, establish conditions for the
regularization path of ReLU networks to be continuous, and develop sensitivity
results for minimal ReLU networks.
- Abstract(参考訳): 本研究では,非凸トレーニング問題を凸プログラムとして再構成することにより,最適なReLUニューラルネットワークの集合を特徴付ける分析フレームワークを開発する。
凸パラメータ化の大域的最適性は多面体集合によって与えられ、この特徴は非凸トレーニング目的の最適集合に拡張されることを示す。
ReLUトレーニング問題の定常点はすべて、サブサンプル凸プログラムの最適点として表現できるので、我々の研究は、非凸目的のすべての臨界点に対する一般的な表現を提供する。
そして,この結果を利用して,最小ネットワーク計算のための最適プルーニングアルゴリズム,reluネットワークの正規化経路の連続化条件の確立,および最小reluネットワークに対する感度評価結果の開発を行った。
関連論文リスト
- The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Reverse Engineering Deep ReLU Networks An Optimization-based Algorithm [0.0]
本稿では,凸最適化手法とサンプリングに基づくアプローチを利用して,深部ReLUネットワークを再構築する手法を提案する。
我々の研究は、リバースエンジニアリングの深いReLUネットワークへの取り組みに寄与し、ニューラルネットワークの解釈可能性とセキュリティの新たな進歩の道を開く。
論文 参考訳(メタデータ) (2023-12-07T20:15:06Z) - Fixing the NTK: From Neural Network Linearizations to Exact Convex
Programs [63.768739279562105]
学習目標に依存しない特定のマスクウェイトを選択する場合、このカーネルはトレーニングデータ上のゲートReLUネットワークのNTKと等価であることを示す。
この目標への依存の欠如の結果として、NTKはトレーニングセット上の最適MKLカーネルよりもパフォーマンスが良くない。
論文 参考訳(メタデータ) (2023-09-26T17:42:52Z) - Composite Optimization Algorithms for Sigmoid Networks [3.160070867400839]
線形化近位アルゴリズムと乗算器の交互方向に基づく合成最適化アルゴリズムを提案する。
フランク関数のフィッティングに関する数値実験により、提案アルゴリズムは十分堅牢に機能することを示した。
論文 参考訳(メタデータ) (2023-03-01T15:30:29Z) - Fast Convex Optimization for Two-Layer ReLU Networks: Equivalent Model
Classes and Cone Decompositions [41.337814204665364]
ReLUアクティベーション機能を持つ2層ニューラルネットワークの凸最適化アルゴリズムを開発した。
凸ゲート型ReLUモデルでは,ReLUトレーニング問題に対するデータ依存の近似バウンダリが得られることを示す。
論文 参考訳(メタデータ) (2022-02-02T23:50:53Z) - Path Regularization: A Convexity and Sparsity Inducing Regularization
for Parallel ReLU Networks [75.33431791218302]
本稿では,ディープニューラルネットワークのトレーニング問題について検討し,最適化環境に隠された凸性を明らかにするための解析的アプローチを提案する。
我々は、標準のディープ・ネットワークとResNetを特別なケースとして含む、ディープ・パラレルなReLUネットワークアーキテクチャについて検討する。
論文 参考訳(メタデータ) (2021-10-18T18:00:36Z) - Sparse Signal Reconstruction for Nonlinear Models via Piecewise Rational
Optimization [27.080837460030583]
劣化した信号を非線形歪みと限られたサンプリングレートで再構成する手法を提案する。
本手法は,不正確な適合項と罰則として定式化する。
シミュレーションの利点の観点から,この問題の活用方法を示す。
論文 参考訳(メタデータ) (2020-10-29T09:05:19Z) - The Hidden Convex Optimization Landscape of Two-Layer ReLU Neural
Networks: an Exact Characterization of the Optimal Solutions [51.60996023961886]
コーン制約のある凸最適化プログラムを解くことにより,グローバルな2層ReLUニューラルネットワークの探索が可能であることを示す。
我々の分析は新しく、全ての最適解を特徴づけ、最近、ニューラルネットワークのトレーニングを凸空間に持ち上げるために使われた双対性に基づく分析を活用できない。
論文 参考訳(メタデータ) (2020-06-10T15:38:30Z) - Convex Geometry and Duality of Over-parameterized Neural Networks [70.15611146583068]
有限幅2層ReLUネットワークの解析のための凸解析手法を開発した。
正規化学習問題に対する最適解が凸集合の極点として特徴づけられることを示す。
高次元では、トレーニング問題は無限に多くの制約を持つ有限次元凸問題としてキャストできることが示される。
論文 参考訳(メタデータ) (2020-02-25T23:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。