論文の概要: The role of optimization geometry in single neuron learning
- arxiv url: http://arxiv.org/abs/2006.08575v4
- Date: Fri, 22 Apr 2022 00:53:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 03:50:21.195621
- Title: The role of optimization geometry in single neuron learning
- Title(参考訳): 単一ニューロン学習における最適化幾何の役割
- Authors: Nicholas M. Boffi, Stephen Tu, and Jean-Jacques E. Slotine
- Abstract要約: 近年,表現型ニューラルネットワークの学習において,最適化アルゴリズムの選択が一般化性能に影響を与えることが実証されている。
幾何学と特徴幾何学の相互作用が、どのようにしてアウト・オブ・サンプレットを導き、性能を向上させるかを示す。
- 参考スコア(独自算出の注目度): 12.891722496444036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent numerical experiments have demonstrated that the choice of
optimization geometry used during training can impact generalization
performance when learning expressive nonlinear model classes such as deep
neural networks. These observations have important implications for modern deep
learning but remain poorly understood due to the difficulty of the associated
nonconvex optimization problem. Towards an understanding of this phenomenon, we
analyze a family of pseudogradient methods for learning generalized linear
models under the square loss - a simplified problem containing both
nonlinearity in the model parameters and nonconvexity of the optimization which
admits a single neuron as a special case. We prove non-asymptotic bounds on the
generalization error that sharply characterize how the interplay between the
optimization geometry and the feature space geometry sets the out-of-sample
performance of the learned model. Experimentally, selecting the optimization
geometry as suggested by our theory leads to improved performance in
generalized linear model estimation problems such as nonlinear and nonconvex
variants of sparse vector recovery and low-rank matrix sensing.
- Abstract(参考訳): 近年の数値実験により、深層ニューラルネットワークのような表現力のある非線形モデルクラスを学習する際の一般化性能に影響を与えることが示されている。
これらの観察は、現代の深層学習に重要な意味を持つが、関連する非凸最適化問題の難しさから理解されていない。
この現象の理解に向けて,二乗損失の下で一般化線形モデルを学ぶための擬似次数列の解析を行った。モデルパラメータの非線形性と,単一ニューロンを特別な場合として認める最適化の非凸性の両方を含む簡易問題である。
一般化誤差の非漸近境界を証明し、最適化幾何と特徴空間幾何との相互作用が学習モデルのサンプル性能を著しく特徴づける。
実験的に,本理論が提案する最適化幾何学の選択は,非線形および非凸ベクトル回復や低ランク行列センシングといった一般線形モデル推定問題の性能向上につながる。
関連論文リスト
- The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Optimal Nonlinearities Improve Generalization Performance of Random
Features [0.9790236766474201]
非線形活性化関数を持つランダム特徴モデルは、訓練および一般化誤差の観点からガウスモデルと実演的に等価であることが示されている。
ガウスモデルから取得したパラメータが最適非線形性の集合を定義できることを示す。
最適化された非線形性はReLUのような広く使われている非線形関数よりも優れた一般化性能が得られることを示す。
論文 参考訳(メタデータ) (2023-09-28T20:55:21Z) - The Power of Learned Locally Linear Models for Nonlinear Policy
Optimization [26.45568696453259]
本稿では,一般的な非線形システムに対する簡易な戦略の厳密な分析を行う。
非線形系力学の局所線形モデルの推定と$mathttiLQR$のようなポリシー更新の繰り返しを行うアルゴリズムを解析する。
論文 参考訳(メタデータ) (2023-05-16T17:13:00Z) - Hessian Eigenspectra of More Realistic Nonlinear Models [73.31363313577941]
私たちは、非線形モデルの広いファミリーのためのヘッセン固有スペクトルの言語的特徴付けを行います。
我々の分析は、より複雑な機械学習モデルで観察される多くの顕著な特徴の起源を特定するために一歩前進する。
論文 参考訳(メタデータ) (2021-03-02T06:59:52Z) - LQF: Linear Quadratic Fine-Tuning [114.3840147070712]
本稿では,非線形微調整に匹敵する性能を実現する事前学習モデルの線形化手法を提案する。
LQFはアーキテクチャの単純な変更、損失関数、そして一般的に分類に使用される最適化で構成されている。
論文 参考訳(メタデータ) (2020-12-21T06:40:20Z) - Learning Fast Approximations of Sparse Nonlinear Regression [50.00693981886832]
本研究では,Threshold Learned Iterative Shrinkage Algorithming (NLISTA)を導入することでギャップを埋める。
合成データを用いた実験は理論結果と相関し,その手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-26T11:31:08Z) - Non-parametric Models for Non-negative Functions [48.7576911714538]
同じ良い線形モデルから非負関数に対する最初のモデルを提供する。
我々は、それが表現定理を認め、凸問題に対する効率的な二重定式化を提供することを証明した。
論文 参考訳(メタデータ) (2020-07-08T07:17:28Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z) - Loss landscapes and optimization in over-parameterized non-linear
systems and neural networks [20.44438519046223]
広域ニューラルネットワークがPL$*$条件を満たすことを示し、(S)GD収束を大域最小値に説明する。
広域ニューラルネットワークがPL$*$条件を満たすことを示し、(S)GD収束を大域最小値に説明する。
論文 参考訳(メタデータ) (2020-02-29T17:18:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。