論文の概要: Stochasticity in Neural ODEs: An Empirical Study
- arxiv url: http://arxiv.org/abs/2002.09779v2
- Date: Fri, 26 Jun 2020 17:02:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 18:51:49.898725
- Title: Stochasticity in Neural ODEs: An Empirical Study
- Title(参考訳): ニューラルネットワークの確率性:実証的研究
- Authors: Viktor Oganesyan, Alexandra Volokhova, Dmitry Vetrov
- Abstract要約: ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic regularization of neural networks (e.g. dropout) is a wide-spread
technique in deep learning that allows for better generalization. Despite its
success, continuous-time models, such as neural ordinary differential equation
(ODE), usually rely on a completely deterministic feed-forward operation. This
work provides an empirical study of stochastically regularized neural ODE on
several image-classification tasks (CIFAR-10, CIFAR-100, TinyImageNet).
Building upon the formalism of stochastic differential equations (SDEs), we
demonstrate that neural SDE is able to outperform its deterministic
counterpart. Further, we show that data augmentation during the training
improves the performance of both deterministic and stochastic versions of the
same model. However, the improvements obtained by the data augmentation
completely eliminate the empirical gains of the stochastic regularization,
making the difference in the performance of neural ODE and neural SDE
negligible.
- Abstract(参考訳): ニューラルネットワークの確率的正則化(例えば、ドロップアウト)は、より高度な一般化を可能にする深層学習の幅広い手法である。
その成功にもかかわらず、ニューラル常微分方程式(ODE)のような連続時間モデルは、通常完全に決定論的フィードフォワード演算に依存する。
この研究は、いくつかの画像分類タスク(cifar-10、cifar-100、tinyimagenet)における確率的正規化ニューラルodeの実証研究を提供する。
確率微分方程式 (SDE) の定式化を基礎として, ニューラルSDEが決定論的に優れていることを示す。
さらに、トレーニング中のデータ拡張により、同じモデルの決定論的および確率的両方のモデルの性能が向上することを示す。
しかし、データ拡張により得られた改善により、確率正規化の実証的な利得は完全に排除され、ニューラルODEとニューラルSDEの性能の差が無視される。
関連論文リスト
- CGNSDE: Conditional Gaussian Neural Stochastic Differential Equation for Modeling Complex Systems and Data Assimilation [1.4322470793889193]
条件付きニューラル微分方程式(CGNSDE)と呼ばれる新しい知識ベースおよび機械学習ハイブリッドモデリング手法を開発した。
標準的なニューラルネットワーク予測モデルとは対照的に、CGNSDEは前方予測タスクと逆状態推定問題の両方に効果的に取り組むように設計されている。
論文 参考訳(メタデータ) (2024-04-10T05:32:03Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Neural Generalized Ordinary Differential Equations with Layer-varying
Parameters [1.3691539554014036]
層状ニューラルGODEは標準ニューラルGODEよりも柔軟で汎用的であることを示す。
Neural-GODEは、予測精度でResNetsと互換性を持って実行しながら、計算とメモリの利点を享受する。
論文 参考訳(メタデータ) (2022-09-21T20:02:28Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Neural Stochastic Partial Differential Equations [1.2183405753834562]
物理に着想を得たニューラルアーキテクチャの2つの重要なクラスの拡張を提供するニューラルSPDEモデルを導入する。
一方、一般的な神経-通常、制御され、粗い-微分方程式モデルをすべて拡張し、入ってくる情報を処理することができる。
一方、関数空間間のマッピングをモデル化するニューラルネットワークの最近の一般化であるNeural Operatorsを拡張して、複雑なSPDEソリューション演算子を学習することができる。
論文 参考訳(メタデータ) (2021-10-19T20:35:37Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Distributional Gradient Matching for Learning Uncertain Neural Dynamics
Models [38.17499046781131]
本稿では,数値積分ボトルネックを回避するため,不確実なニューラル・オーダを推定するための新しい手法を提案する。
我々のアルゴリズム - 分布勾配マッチング (DGM) は、よりスムーズなモデルと動的モデルを共同で訓練し、ワッサーシュタイン損失を最小化することでそれらの勾配と一致する。
数値積分に基づく従来の近似推論手法と比較して,我々の手法は訓練がより速く,これまで見つからなかった軌道の予測がより高速であり,ニューラルODEの文脈では,はるかに正確であることがわかった。
論文 参考訳(メタデータ) (2021-06-22T08:40:51Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Bayesian Neural Ordinary Differential Equations [0.9422623204346027]
Neural ODEs と Bayesian 推論フレームワークの統合が成功したことを実証します。
10,000枚の画像のテストアンサンブルで、後部のサンプル精度を98.5%達成します。
これにより、不確実性の確率的推定のための科学的機械学習ツールが提供される。
論文 参考訳(メタデータ) (2020-12-14T04:05:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。