論文の概要: Connecting Optimization and Generalization via Gradient Flow Path Length
- arxiv url: http://arxiv.org/abs/2202.10670v1
- Date: Tue, 22 Feb 2022 04:58:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 02:48:54.641895
- Title: Connecting Optimization and Generalization via Gradient Flow Path Length
- Title(参考訳): 勾配流路長による接続最適化と一般化
- Authors: Fusheng Liu, Haizhao Yang, Soufiane Hayou, Qianxiao Li
- Abstract要約: 収束後の勾配流アルゴリズムの下での最適化軌道長に基づいて一般化誤差を解析し,最適化と一般化を結びつける枠組みを提案する。
フレームワークは幅広い設定に適用可能であり,例えば,3つの異なる機械学習モデルに対する一般化推定値を得る。
- 参考スコア(独自算出の注目度): 17.099964074542818
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimization and generalization are two essential aspects of machine
learning. In this paper, we propose a framework to connect optimization with
generalization by analyzing the generalization error based on the length of
optimization trajectory under the gradient flow algorithm after convergence.
Through our approach, we show that, with a proper initialization, gradient flow
converges following a short path with an explicit length estimate. Such an
estimate induces a length-based generalization bound, showing that short
optimization paths after convergence are associated with good generalization,
which also matches our numerical results. Our framework can be applied to broad
settings. For example, we use it to obtain generalization estimates on three
distinct machine learning models: underdetermined $\ell_p$ linear regression,
kernel regression, and overparameterized two-layer ReLU neural networks.
- Abstract(参考訳): 最適化と一般化は機械学習の2つの重要な側面である。
本稿では,収束後の勾配流アルゴリズムの下での最適化軌道の長さに基づく一般化誤差を解析し,最適化と一般化を結びつける枠組みを提案する。
提案手法により, 適切な初期化により, 勾配流は, 明示的な長さ推定を伴う短い経路に沿って収束することを示す。
このような推定は、収束後の短い最適化経路が良い一般化と関連していることを示す、長さベースの一般化境界を誘導する。
我々のフレームワークは幅広い設定に適用できる。
例えば、Under Determined $\ell_p$ linear regression, kernel regression, and overparameterized two-layer ReLU Neural Networkである。
関連論文リスト
- Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Implicit regularization in AI meets generalized hardness of
approximation in optimization -- Sharp results for diagonal linear networks [0.0]
直交線形ネットワークの勾配流による暗黙の正規化について, 鋭い結果を示す。
これを近似の一般化硬度における相転移現象と関連付ける。
結果の非シャープ性は、基礎追従最適化問題に対して、GHA現象が起こらないことを意味する。
論文 参考訳(メタデータ) (2023-07-13T13:27:51Z) - On the Effect of Initialization: The Scaling Path of 2-Layer Neural
Networks [21.69222364939501]
教師付き学習では、正規化経路はゼロからの勾配降下の最適化経路の便利な理論的プロキシとして用いられることがある。
この経路がカーネルとリッチレジームの間に連続的に補間されていることを示す。
論文 参考訳(メタデータ) (2023-03-31T05:32:11Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Unified Convergence Analysis for Adaptive Optimization with Moving Average Estimator [75.05106948314956]
1次モーメントに対する大きな運動量パラメータの増大は適応的スケーリングに十分であることを示す。
また,段階的に減少するステップサイズに応じて,段階的に運動量を増加させるための洞察を与える。
論文 参考訳(メタデータ) (2021-04-30T08:50:24Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Channel-Directed Gradients for Optimization of Convolutional Neural
Networks [50.34913837546743]
本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。