論文の概要: On Equivalent Optimization of Machine Learning Methods
- arxiv url: http://arxiv.org/abs/2302.09160v1
- Date: Fri, 17 Feb 2023 22:15:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 20:07:05.411778
- Title: On Equivalent Optimization of Machine Learning Methods
- Title(参考訳): 機械学習手法の等価最適化について
- Authors: William T. Redman, Juan M. Bello-Rivas, Maria Fonoberova, Ryan Mohr,
Ioannis G. Kevrekidis, Igor Mezi\'c
- Abstract要約: 学習速度,バッチサイズ,層幅,データセット,アクティベーション関数の選択が,トレーニング中のネットワークパラメータの等価あるいは等価な進化につながる場合の一般的な特徴を示す。
その結果, バッチサイズ比, 層幅, データセットの性質(手書きと合成) およびアクティベーション関数が共役性に影響を及ぼすことがわかった。
- 参考スコア(独自算出の注目度): 1.9573380763700712
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: At the core of many machine learning methods resides an iterative
optimization algorithm for their training. Such optimization algorithms often
come with a plethora of choices regarding their implementation. In the case of
deep neural networks, choices of optimizer, learning rate, batch size, etc.
must be made. Despite the fundamental way in which these choices impact the
training of deep neural networks, there exists no general method for
identifying when they lead to equivalent, or non-equivalent, optimization
trajectories. By viewing iterative optimization as a discrete-time dynamical
system, we are able to leverage Koopman operator theory, where it is known that
conjugate dynamics can have identical spectral objects. We find highly
overlapping Koopman spectra associated with the application of online mirror
and gradient descent to specific problems, illustrating that such a data-driven
approach can corroborate the recently discovered analytical equivalence between
the two optimizers. We extend our analysis to feedforward, fully connected
neural networks, providing the first general characterization of when choices
of learning rate, batch size, layer width, data set, and activation function
lead to equivalent, and non-equivalent, evolution of network parameters during
training. Among our main results, we find that learning rate to batch size
ratio, layer width, nature of data set (handwritten vs. synthetic), and
activation function affect the nature of conjugacy. Our data-driven approach is
general and can be utilized broadly to compare the optimization of machine
learning methods.
- Abstract(参考訳): 多くの機械学習手法の核心には、トレーニングのための反復最適化アルゴリズムがある。
このような最適化アルゴリズムは、しばしば実装に関する多くの選択肢を伴っている。
ディープニューラルネットワークの場合、オプティマイザ、学習率、バッチサイズなどを選択する必要があります。
これらの選択がディープニューラルネットワークのトレーニングに影響を与える基本的な方法にもかかわらず、それらが等価あるいは等価でない最適化軌道にいつ導かれるかを特定する一般的な方法は存在しない。
離散時間力学系として反復最適化を見ることにより、共役力学が同一のスペクトル対象を持つことが知られているクープマン作用素理論を活用できる。
オンラインミラーの応用と勾配勾配勾配による特定の問題に対するKoopmanスペクトルの重なりが強く、このようなデータ駆動アプローチは、最近発見された2つのオプティマイザ間の解析的等価性を相関させることができる。
学習速度、バッチサイズ、層幅、データセット、アクティベーション関数の選択が、トレーニング中のネットワークパラメータの等価かつ非等価な進化につながる場合の、最初の一般的な特徴付けを提供する。
その結果,学習率からバッチサイズ比,層幅,データセットの性質(手書き対合成),活性化関数が共役の性質に影響することがわかった。
データ駆動アプローチは一般的であり、機械学習手法の最適化を比較するために広く利用することができる。
関連論文リスト
- Dynamical stability and chaos in artificial neural network trajectories along training [3.379574469735166]
浅いニューラルネットワークのネットワーク軌跡をこのレンズを通して解析することにより,このプロセスの動的特性について検討する。
我々は,学習率の仕組みによって,規則的かつカオス的な行動のヒントを見いだす。
この研究は、力学系理論、ネットワーク理論、機械学習のアイデアの交叉受精にも貢献している。
論文 参考訳(メタデータ) (2024-04-08T17:33:11Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Convolutional Dictionary Learning by End-To-End Training of Iterative
Neural Networks [3.6280929178575994]
本研究では,教師付きおよび物理情報を用いたオンライン畳み込み辞書学習アルゴリズムとして利用可能な INN を構築する。
提案手法は,従来の2つのモデルに依存しない訓練法よりも改善され,深い INN と比較して競争結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-09T12:15:38Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Edge of chaos as a guiding principle for modern neural network training [19.419382003562976]
ニューラルネットワーク学習アルゴリズムにおける様々なハイパーパラメータの役割を秩序-カオス位相図を用いて検討する。
特に、広く採用されているFashion-MNISTデータセットに基づいて、完全に解析的なフィードフォワードニューラルネットワークについて検討する。
論文 参考訳(メタデータ) (2021-07-20T12:17:55Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z) - Deep learning of contagion dynamics on complex networks [0.0]
本稿では,ネットワーク上での感染動態の効果的なモデルを構築するために,ディープラーニングに基づく補完的アプローチを提案する。
任意のネットワーク構造をシミュレーションすることで,学習したダイナミックスの性質を学習データを超えて探索することが可能になる。
この結果は,ネットワーク上での感染動態の効果的なモデルを構築するために,ディープラーニングが新たな補完的な視点を提供することを示す。
論文 参考訳(メタデータ) (2020-06-09T17:18:34Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。