論文の概要: "Hey, that's not an ODE": Faster ODE Adjoints via Seminorms
- arxiv url: http://arxiv.org/abs/2009.09457v2
- Date: Mon, 10 May 2021 12:37:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 13:09:45.703380
- Title: "Hey, that's not an ODE": Faster ODE Adjoints via Seminorms
- Title(参考訳): 『あれはODEじゃない』:セミノルムによるより高速なODE結合
- Authors: Patrick Kidger and Ricky T. Q. Chen and Terry Lyons
- Abstract要約: 随伴方程式の構造がノルムの通常の選択を不要に拘束的であることを示す。
より適切な(半)ノルムに置き換えることによって、不要なステップを排除し、バックプロパゲーションを高速化する。
- 参考スコア(独自算出の注目度): 21.08326743182703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural differential equations may be trained by backpropagating gradients via
the adjoint method, which is another differential equation typically solved
using an adaptive-step-size numerical differential equation solver. A proposed
step is accepted if its error, \emph{relative to some norm}, is sufficiently
small; else it is rejected, the step is shrunk, and the process is repeated.
Here, we demonstrate that the particular structure of the adjoint equations
makes the usual choices of norm (such as $L^2$) unnecessarily stringent. By
replacing it with a more appropriate (semi)norm, fewer steps are unnecessarily
rejected and the backpropagation is made faster. This requires only minor code
modifications. Experiments on a wide range of tasks -- including time series,
generative modeling, and physical control -- demonstrate a median improvement
of 40% fewer function evaluations. On some problems we see as much as 62% fewer
function evaluations, so that the overall training time is roughly halved.
- Abstract(参考訳): 神経微分方程式は、適応ステップサイズの数値微分方程式解法を用いて典型的に解かれる別の微分方程式である随伴法(adjoint method)を介して勾配をバックプロパゲートすることで訓練することができる。
提案されたステップは、そのエラーである \emph{relative to some norm} が十分に小さい場合に受け入れられる。
ここでは、随伴方程式の特定の構造が通常のノルムの選択(例えば$l^2$)を不必要に厳密にすることを示す。
より適切な(半)ノルムに置き換えることによって、不要なステップを排除し、バックプロパゲーションを高速化する。
これは小さなコード修正だけを必要とする。
時系列、生成モデリング、物理的制御を含む幅広いタスクに関する実験は、機能評価の40%の中央値の改善を示している。
いくつかの問題では、機能評価が最大62%少なくなり、全体のトレーニング時間が約半分になる。
関連論文リスト
- Partial-differential-algebraic equations of nonlinear dynamics by Physics-Informed Neural-Network: (I) Operator splitting and framework assessment [51.3422222472898]
偏微分代数方程式の解法として, 新規な物理情報ネットワーク(PINN)の構築法が提案されている。
これらの新しい手法には PDE 形式があり、これは未知の従属変数が少ない低レベル形式からより従属変数を持つ高レベル形式へと進化している。
論文 参考訳(メタデータ) (2024-07-13T22:48:17Z) - Implementation and (Inverse Modified) Error Analysis for
implicitly-templated ODE-nets [0.0]
我々は,暗黙的な数値初期値問題解法に基づいてテンプレート化されたODE-netを用いてデータから未知のダイナミクスを学習することに焦点を当てた。
我々は,非ロール型暗黙的スキームを用いて,ODE-netの逆修正誤り解析を行い,解釈を容易にする。
我々は,誤差のレベルを監視し,暗黙的な解反復数に適応する適応アルゴリズムを定式化する。
論文 参考訳(メタデータ) (2023-03-31T06:47:02Z) - Locally Regularized Neural Differential Equations: Some Black Boxes Were
Meant to Remain Closed! [3.222802562733787]
ニューラル微分方程式のような暗黙の層深層学習技術は重要なモデリングフレームワークとなっている。
パフォーマンスとトレーニング時間をトレードオフする2つのサンプリング戦略を開発します。
本手法は,関数評価を0.556-0.733xに削減し,予測を1.3-2xに高速化する。
論文 参考訳(メタデータ) (2023-03-03T23:31:15Z) - Discovering ordinary differential equations that govern time-series [65.07437364102931]
本研究では, 1つの観測解の時系列データから, スカラー自律常微分方程式(ODE)を記号形式で復元するトランスフォーマーに基づくシーケンス・ツー・シーケンス・モデルを提案する。
提案手法は, 1回に一度, ODE の大規模な事前訓練を行った後, モデルのいくつかの前方通過において, 新たに観測された解の法則を推測することができる。
論文 参考訳(メタデータ) (2022-11-05T07:07:58Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Meta-Learning with Adjoint Methods [16.753336086160598]
メタラーニング(MAML)は、タスクファミリーの優れた初期化を見つけるために広く使われている。
その成功にもかかわらず、MAMLにおける重要な課題は、サンプリングされたタスクに対する長いトレーニング軌跡の初期化で勾配を計算することである。
本稿では,この問題を解決するためにAdjoint MAML (A-MAML)を提案する。
人工メタ学習と実世界のメタ学習の両方において、我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2021-10-16T01:18:50Z) - Rao-Blackwellizing the Straight-Through Gumbel-Softmax Gradient
Estimator [93.05919133288161]
一般的なGumbel-Softmax推定器のストレートスルー変量の分散は、ラオ・ブラックウェル化により減少できることを示す。
これは平均二乗誤差を確実に減少させる。
これは分散の低減、収束の高速化、および2つの教師なし潜在変数モデルの性能向上につながることを実証的に実証した。
論文 参考訳(メタデータ) (2020-10-09T22:54:38Z) - ResNet After All? Neural ODEs and Their Numerical Solution [28.954378025052925]
訓練されたニューラル正規微分方程式モデルは、実際にトレーニング中に使用される特定の数値法に依存していることを示す。
本稿では,ODEソルバの動作を学習中に監視し,ステップサイズを適応させる手法を提案する。
論文 参考訳(メタデータ) (2020-07-30T11:24:05Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z) - Gradient Free Minimax Optimization: Variance Reduction and Faster
Convergence [120.9336529957224]
本稿では、勾配のないミニマックス最適化問題の大きさを非強設定で表現する。
本稿では,新しいゼロ階分散還元降下アルゴリズムが,クエリの複雑さを最もよく表すことを示す。
論文 参考訳(メタデータ) (2020-06-16T17:55:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。