論文の概要: Faster Training of Neural ODEs Using Gau{\ss}-Legendre Quadrature
- arxiv url: http://arxiv.org/abs/2308.10644v1
- Date: Mon, 21 Aug 2023 11:31:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 13:50:52.776510
- Title: Faster Training of Neural ODEs Using Gau{\ss}-Legendre Quadrature
- Title(参考訳): gau{\ss}-legendre quadratureを用いたニューラルネットワークの高速学習
- Authors: Alexander Norcliffe, Marc Peter Deisenroth
- Abstract要約: ニューラルネットワークの訓練を高速化する代替手法を提案する。
我々はGuss-Legendre乗法を用いて、ODEベースの方法よりも高速に積分を解く。
また、Wong-Zakai定理を用いて、対応するODEをトレーニングし、パラメータを転送することで、SDEのトレーニングにも拡張する。
- 参考スコア(独自算出の注目度): 68.9206193762751
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural ODEs demonstrate strong performance in generative and time-series
modelling. However, training them via the adjoint method is slow compared to
discrete models due to the requirement of numerically solving ODEs. To speed
neural ODEs up, a common approach is to regularise the solutions. However, this
approach may affect the expressivity of the model; when the trajectory itself
matters, this is particularly important. In this paper, we propose an
alternative way to speed up the training of neural ODEs. The key idea is to
speed up the adjoint method by using Gau{\ss}-Legendre quadrature to solve
integrals faster than ODE-based methods while remaining memory efficient. We
also extend the idea to training SDEs using the Wong-Zakai theorem, by training
a corresponding ODE and transferring the parameters. Our approach leads to
faster training of neural ODEs, especially for large models. It also presents a
new way to train SDE-based models.
- Abstract(参考訳): ニューラルODEは生成および時系列モデリングにおいて強い性能を示す。
しかし, 数値解法が必要となるため, 離散モデルに比べ, 随伴法による訓練は遅い。
ニューラルODEを高速化するには、ソリューションを正規化するのが一般的なアプローチである。
しかし、このアプローチはモデルの表現性に影響を与える可能性があり、軌跡自体が重要である場合、特に重要である。
本稿では,ニューラルodeの学習を高速化するための代替手法を提案する。
重要なアイデアは、 gau{\ss}-legendre quadratureを使用して、メモリ効率を保ちながら、odeベースのメソッドよりも早く積分を解くことで、随伴メソッドを高速化することである。
また、Wong-Zakai定理を用いて、対応するODEをトレーニングし、パラメータを転送することで、SDEのトレーニングにも拡張する。
我々のアプローチは、特に大規模モデルにおいて、ニューラルODEの高速なトレーニングにつながる。
また、SDEベースのモデルをトレーニングする新しい方法を提供する。
関連論文リスト
- AdamNODEs: When Neural ODE Meets Adaptive Moment Estimation [19.909858354874547]
古典運動量に基づくアプローチの加速度を適応的に制御する適応運動量推定ニューラルネットワーク(AdamNODEs)を提案する。
評価において、AdamNODEは既存のニューラルネットワークに比べてトレーニング損失と有効性が低いことを示す。
論文 参考訳(メタデータ) (2022-07-13T09:20:38Z) - On the balance between the training time and interpretability of neural
ODE for time series modelling [77.34726150561087]
本稿は,現代のニューラルODEを,時系列モデリングアプリケーションのためのより単純なモデルに還元することはできないことを示す。
ニューラルODEの複雑さは、従来の時系列モデリングツールと比較されるか、超える。
本稿では,ニューラルネットワークとODEシステムを用いた時系列モデリングの新しい視点を提案する。
論文 参考訳(メタデータ) (2022-06-07T13:49:40Z) - Heavy Ball Neural Ordinary Differential Equations [12.861233366398162]
重球型ニューラル常微分方程式(HBNODE)を提案し,ニューラル・ニューラル・ニューラル・ニューラル・ニューラル・ニューラル・ニューラル・ニューラル・ニューラル・ニューラル・ニューラル・ニューラル・ニューラル・ニューラル・ニューラル・ニューラル・ニューラル・ニューラル・ニューラル・ニューラル・オーラル・ディファレンス(NODE)のトレーニングと推論を改善する。
HBNODE には、NODE に対して実用的な利点を示す2つの特性がある。
我々は、画像分類、複雑な力学の学習、逐次モデリングなど、ベンチマークタスクにおけるHBNODEの利点を検証する。
論文 参考訳(メタデータ) (2021-10-10T16:11:11Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - STEER: Simple Temporal Regularization For Neural ODEs [80.80350769936383]
トレーニング中のODEの終了時刻をランダムにサンプリングする新しい正規化手法を提案する。
提案された正規化は実装が簡単で、オーバーヘッドを無視でき、様々なタスクで有効である。
本稿では,フローの正規化,時系列モデル,画像認識などの実験を通じて,提案した正規化がトレーニング時間を大幅に短縮し,ベースラインモデルよりも性能を向上できることを示す。
論文 参考訳(メタデータ) (2020-06-18T17:44:50Z) - Neural Ordinary Differential Equation based Recurrent Neural Network
Model [0.7233897166339269]
微分方程式は ニューラルネットワークの 新たなメンバーだ
本稿では, 通常の微分方程式(ODE)の強度を新しい拡張法で探索する。
2つの新しいODEベースのRNNモデル(GRU-ODEモデルとLSTM-ODE)は、ODEソルバを用いて任意の時点で隠れた状態とセル状態を計算することができる。
実験により、これらの新しいODEベースのRNNモデルは、遅延ODEや従来のニューラルODEよりもトレーニング時間が少ないことが示された。
論文 参考訳(メタデータ) (2020-05-20T01:02:29Z) - Interpolation Technique to Speed Up Gradients Propagation in Neural ODEs [71.26657499537366]
本稿では,ニューラルネットワークモデルにおける勾配の効率的な近似法を提案する。
我々は、分類、密度推定、推論近似タスクにおいて、ニューラルODEをトレーニングするリバースダイナミック手法と比較する。
論文 参考訳(メタデータ) (2020-03-11T13:15:57Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z) - How to train your neural ODE: the world of Jacobian and kinetic
regularization [7.83405844354125]
大規模データセット上でのニューラルODEのトレーニングは、適応的数値ODEソルバがステップサイズを非常に小さな値に洗練できるようにする必要があるため、難航していない。
最適輸送と安定性の正則化の両方を理論的に基礎的に組み合わせることで、ニューラルODEは、問題をうまく解決するすべての力学から、より単純なダイナミクスを優先する。
論文 参考訳(メタデータ) (2020-02-07T14:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。