論文の概要: Revisiting Landscape Analysis in Deep Neural Networks: Eliminating
Decreasing Paths to Infinity
- arxiv url: http://arxiv.org/abs/1912.13472v1
- Date: Tue, 31 Dec 2019 18:17:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 20:24:17.297406
- Title: Revisiting Landscape Analysis in Deep Neural Networks: Eliminating
Decreasing Paths to Infinity
- Title(参考訳): 深層ニューラルネットワークにおける景観解析の再検討:無限小への減少経路の排除
- Authors: Shiyu Liang, Ruoyu Sun and R. Srikant
- Abstract要約: 損失関数が減少する無限小に至る経路が存在する場合、降下アルゴリズムは無限小に分岐することができる。
非線形ニューラルネットワークには、悪いローカルミンが無く、無限大への減少経路が同時に達成できないという設定が1つ存在するかどうかは不明だ。
- 参考スコア(独自算出の注目度): 24.170237935033647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional landscape analysis of deep neural networks aims to show that no
sub-optimal local minima exist in some appropriate sense. From this, one may be
tempted to conclude that descent algorithms which escape saddle points will
reach a good local minimum. However, basic optimization theory tell us that it
is also possible for a descent algorithm to diverge to infinity if there are
paths leading to infinity, along which the loss function decreases. It is not
clear whether for non-linear neural networks there exists one setting that no
bad local-min and no decreasing paths to infinity can be simultaneously
achieved. In this paper, we give the first positive answer to this question.
More specifically, for a large class of over-parameterized deep neural networks
with appropriate regularizers, the loss function has no bad local minima and no
decreasing paths to infinity. The key mathematical trick is to show that the
set of regularizers which may be undesirable can be viewed as the image of a
Lipschitz continuous mapping from a lower-dimensional Euclidean space to a
higher-dimensional Euclidean space, and thus has zero measure.
- Abstract(参考訳): ディープニューラルネットワークの伝統的なランドスケープ分析は、特定の意味で最適な局所最小値が存在しないことを示すことを目的としている。
このことから、サドル点から逃れる降下アルゴリズムが良い局所最小値に達すると結論付ける誘惑があるかもしれない。
しかし、基本最適化理論は、損失関数が減少する無限小への経路が存在する場合、降下アルゴリズムが無限小に分岐することも可能であることを示唆している。
非線形ニューラルネットワークには、悪い局所ミンと無限への縮小経路を同時に達成できない1つの設定が存在するかどうかは不明である。
本稿では,この問題に対する最初の肯定的な回答を示す。
より具体的には、適切な正規化子を持つ大規模な超パラメータ深層ニューラルネットワークでは、損失関数は悪質な局所的ミニマではなく、無限大への縮小パスも持たない。
鍵となる数学的トリックは、望ましくないであろう正規化子の集合が、低次元ユークリッド空間から高次元ユークリッド空間へのリプシッツ連続写像の像と見なすことができ、従って測度がゼロであることを示すことである。
関連論文リスト
- A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Decentralized Riemannian Algorithm for Nonconvex Minimax Problems [82.50374560598493]
ニューラルネットワークのためのミニマックスアルゴリズムは、多くの問題を解決するために開発された。
本稿では,2種類のミニマックスアルゴリズムを提案する。
そこで我々は, DRSGDAを提案し, 本手法が勾配を達成することを証明した。
論文 参考訳(メタデータ) (2023-02-08T01:42:45Z) - When Expressivity Meets Trainability: Fewer than $n$ Neurons Can Work [59.29606307518154]
幅が$m geq 2n/d$($d$は入力次元)である限り、その表現性は強く、すなわち、訓練損失がゼロの少なくとも1つの大域最小化器が存在することを示す。
また、実現可能な領域がよい局所領域であるような制約付き最適化の定式化も検討し、すべてのKKT点がほぼ大域最小値であることを示す。
論文 参考訳(メタデータ) (2022-10-21T14:41:26Z) - Implicit Bias in Leaky ReLU Networks Trained on High-Dimensional Data [63.34506218832164]
本研究では,ReLUを活性化した2層完全連結ニューラルネットワークにおける勾配流と勾配降下の暗黙的バイアスについて検討する。
勾配流には、均一なニューラルネットワークに対する暗黙のバイアスに関する最近の研究を活用し、リーク的に勾配流が2つ以上のランクを持つニューラルネットワークを生成することを示す。
勾配降下は, ランダムな分散が十分小さい場合, 勾配降下の1ステップでネットワークのランクが劇的に低下し, トレーニング中もランクが小さくなることを示す。
論文 参考訳(メタデータ) (2022-10-13T15:09:54Z) - A Dimensionality Reduction Method for Finding Least Favorable Priors
with a Focus on Bregman Divergence [108.28566246421742]
そこで本研究では,次元に明示的な有界な有限次元設定に最適化を移動させることができる次元削減法を開発した。
この問題を進展させるため、比較的大きな損失関数、すなわちブレグマンの発散によって引き起こされるベイズ的リスクに限定する。
論文 参考訳(メタデータ) (2022-02-23T16:22:28Z) - The loss landscape of deep linear neural networks: a second-order analysis [9.85879905918703]
正方形損失を伴う深部線形ニューラルネットワークの最適化環境について検討する。
我々は、すべての臨界点の中で、大域最小化点、厳格なサドル点、非制限サドル点を特徴づける。
論文 参考訳(メタデータ) (2021-07-28T11:33:18Z) - Overparameterization of deep ResNet: zero loss and mean-field analysis [19.45069138853531]
データに適合するディープニューラルネットワーク(NN)内のパラメータを見つけることは、非最適化問題である。
基礎的な一階述語最適化法(漸進降下法)は,多くの現実的状況に完全に適合した大域的解を求める。
所定の閾値未満の損失を減らすために必要な深さと幅を高い確率で推定する。
論文 参考訳(メタデータ) (2021-05-30T02:46:09Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - The Global Landscape of Neural Networks: An Overview [23.79848233534269]
ニューラルネットワークの最近の成功は、その損失がそれほど悪くはないことを示唆している。
我々は,「悪い」経路のような幾何学的特性の広いネットワークに関する厳密な結果について論じるとともに,最適化された局所最小値を排除したり,無限大への可視化を減らしたりするいくつかの修正について論じる。
論文 参考訳(メタデータ) (2020-07-02T22:50:20Z) - Critical Point-Finding Methods Reveal Gradient-Flat Regions of Deep
Network Losses [2.046307988932347]
勾配に基づくアルゴリズムは、ランダムな初期点からほぼ同じ性能に収束する。
提案手法は, 決定的臨界点を見つけるために用いられる手法が, それ自体が悪いミニマ問題に悩まされていることを示す。
論文 参考訳(メタデータ) (2020-03-23T17:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。