論文の概要: Does a sparse ReLU network training problem always admit an optimum?
- arxiv url: http://arxiv.org/abs/2306.02666v1
- Date: Mon, 5 Jun 2023 08:01:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 16:19:47.407314
- Title: Does a sparse ReLU network training problem always admit an optimum?
- Title(参考訳): スパースReLUネットワークトレーニング問題は、常に最適か?
- Authors: Quoc-Tung Le (DANTE, LIP), Elisa Riccietti (DANTE, OCKHAM), R\'emi
Gribonval (PANAMA)
- Abstract要約: 最適解の存在は、特にスパースReLUニューラルネットワークの文脈において、必ずしも保証されないことを示す。
特に,特定の疎度パターンを持つディープネットワークにおける最適化問題は,必ずしも最適パラメータを持つとは限らないことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given a training set, a loss function, and a neural network architecture, it
is often taken for granted that optimal network parameters exist, and a common
practice is to apply available optimization algorithms to search for them. In
this work, we show that the existence of an optimal solution is not always
guaranteed, especially in the context of {\em sparse} ReLU neural networks. In
particular, we first show that optimization problems involving deep networks
with certain sparsity patterns do not always have optimal parameters, and that
optimization algorithms may then diverge. Via a new topological relation
between sparse ReLU neural networks and their linear counterparts, we derive --
using existing tools from real algebraic geometry -- an algorithm to verify
that a given sparsity pattern suffers from this issue. Then, the existence of a
global optimum is proved for every concrete optimization problem involving a
shallow sparse ReLU neural network of output dimension one. Overall, the
analysis is based on the investigation of two topological properties of the
space of functions implementable as sparse ReLU neural networks: a best
approximation property, and a closedness property, both in the uniform norm.
This is studied both for (finite) domains corresponding to practical training
on finite training sets, and for more general domains such as the unit cube.
This allows us to provide conditions for the guaranteed existence of an optimum
given a sparsity pattern. The results apply not only to several sparsity
patterns proposed in recent works on network pruning/sparsification, but also
to classical dense neural networks, including architectures not covered by
existing results.
- Abstract(参考訳): トレーニングセット、損失関数、ニューラルネットワークアーキテクチャが与えられた場合、最適ネットワークパラメータが存在することは当然のことであり、それらの探索に利用可能な最適化アルゴリズムを適用するのが一般的である。
本研究では,特にreluニューラルネットワークの文脈において,最適解が存在することは必ずしも保証されないことを示す。
特に,特定のスパーシティパターンを持つディープネットワークを含む最適化問題は,必ずしも最適パラメータを持ち得ず,最適化アルゴリズムが分岐する可能性があることを示す。
スパースReLUニューラルネットワークとリニアニューラルネットワークの新たなトポロジカルな関係により、既存のツールを実際の代数幾何学から利用し、与えられた空間パターンがこの問題に直面することを検証するアルゴリズムを導出します。
そして、出力次元1の浅いスパースreluニューラルネットワークを含む各具体的最適化問題に対して、大域的最適性の存在が証明される。
全体として、解析はスパースReLUニューラルネットワークとして実装可能な関数空間の2つのトポロジカルな特性、すなわち最適な近似特性と閉性(英語版)性(英語版)についての研究に基づいている。
これは有限訓練集合の実際訓練に対応する(有限)領域と単位立方体のようなより一般的な領域の両方について研究される。
これにより、スパーシティパターンが与えられた最適の存在を保証する条件を提供することができる。
この結果は、近年のネットワークプルーニング/スパーシフィケーションの研究で提案されているいくつかのスパーシティパターンだけでなく、従来のニューラルネットワークにも当てはまる。
関連論文リスト
- The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Optimal Sets and Solution Paths of ReLU Networks [56.40911684005949]
最適なReLUネットワークの集合を特徴付ける分析フレームワークを開発した。
我々は、ReLUネットワークのニューラル化を継続する条件を確立し、ReLUネットワークに対する感度結果を開発する。
論文 参考訳(メタデータ) (2023-05-31T18:48:16Z) - AskewSGD : An Annealed interval-constrained Optimisation method to train
Quantized Neural Networks [12.229154524476405]
我々は、深層ニューラルネットワーク(DNN)を量子化重みでトレーニングするための新しいアルゴリズム、Annealed Skewed SGD - AskewSGDを開発した。
アクティブなセットと実行可能な方向を持つアルゴリズムとは異なり、AskewSGDは実行可能な全セットの下でのプロジェクションや最適化を避けている。
実験結果から,AskewSGDアルゴリズムは古典的ベンチマークの手法と同等以上の性能を示した。
論文 参考訳(メタデータ) (2022-11-07T18:13:44Z) - Acceleration techniques for optimization over trained neural network
ensembles [1.0323063834827415]
本研究では, 線形単位活性化の補正されたフィードフォワードニューラルネットワークを用いて, 目的関数をモデル化する最適化問題について検討する。
本稿では,1つのニューラルネットワークを最適化するために,既存のBig-M$の定式化をベースとした混合整数線形プログラムを提案する。
論文 参考訳(メタデータ) (2021-12-13T20:50:54Z) - Path Regularization: A Convexity and Sparsity Inducing Regularization
for Parallel ReLU Networks [75.33431791218302]
本稿では,ディープニューラルネットワークのトレーニング問題について検討し,最適化環境に隠された凸性を明らかにするための解析的アプローチを提案する。
我々は、標準のディープ・ネットワークとResNetを特別なケースとして含む、ディープ・パラレルなReLUネットワークアーキテクチャについて検討する。
論文 参考訳(メタデータ) (2021-10-18T18:00:36Z) - Neural Spectrahedra and Semidefinite Lifts: Global Convex Optimization
of Polynomial Activation Neural Networks in Fully Polynomial-Time [31.94590517036704]
2次活性化を持つ2層数値ネットワークの完全凸最適化定式化を考案する。
本研究では,全入力データの複雑度とサンプルサイズが半定常的なニューラル・グローバル最適化であることを示した。
提案手法は, 標準バックプロパゲーション法に比べ, テスト精度が大幅に向上した。
論文 参考訳(メタデータ) (2021-01-07T08:43:01Z) - Efficient Methods for Structured Nonconvex-Nonconcave Min-Max
Optimization [98.0595480384208]
定常点に収束する一般化外空間を提案する。
このアルゴリズムは一般の$p$ノルド空間だけでなく、一般の$p$次元ベクトル空間にも適用される。
論文 参考訳(メタデータ) (2020-10-31T21:35:42Z) - The Hidden Convex Optimization Landscape of Two-Layer ReLU Neural
Networks: an Exact Characterization of the Optimal Solutions [51.60996023961886]
コーン制約のある凸最適化プログラムを解くことにより,グローバルな2層ReLUニューラルネットワークの探索が可能であることを示す。
我々の分析は新しく、全ての最適解を特徴づけ、最近、ニューラルネットワークのトレーニングを凸空間に持ち上げるために使われた双対性に基づく分析を活用できない。
論文 参考訳(メタデータ) (2020-06-10T15:38:30Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。