論文の概要: On the Generalization and Approximation Capacities of Neural Controlled
Differential Equations
- arxiv url: http://arxiv.org/abs/2305.16791v3
- Date: Thu, 28 Sep 2023 20:51:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 18:36:59.281941
- Title: On the Generalization and Approximation Capacities of Neural Controlled
Differential Equations
- Title(参考訳): 神経制御微分方程式の一般化と近似容量について
- Authors: Linus Bleistein, Agathe Guilloux
- Abstract要約: Neural Controlled Differential Equations (NCDE) は、不規則サンプル時系列を用いた教師あり学習のための最先端のツールである。
ニューラルネット上の古典的近似結果がNCDEにどのように移行するかを示す。
- 参考スコア(独自算出の注目度): 0.38073142980732994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Controlled Differential Equations (NCDEs) are a state-of-the-art tool
for supervised learning with irregularly sampled time series (Kidger, 2020).
However, no theoretical analysis of their performance has been provided yet,
and it remains unclear in particular how the irregularity of the time series
affects their predictions. By merging the rich theory of controlled
differential equations (CDE) and Lipschitz-based measures of the complexity of
deep neural nets, we take a first step towards the theoretical understanding of
NCDE. Our first result is a generalization bound for this class of predictors
that depends on the regularity of the time series data. In a second time, we
leverage the continuity of the flow of CDEs to provide a detailed analysis of
both the sampling-induced bias and the approximation bias. Regarding this last
result, we show how classical approximation results on neural nets may transfer
to NCDEs. Our theoretical results are validated through a series of
experiments.
- Abstract(参考訳): Neural Controlled Differential Equations (NCDE)は、不規則にサンプリングされた時系列(Kidger, 2020)で教師あり学習を行う最先端のツールである。
しかし、その性能に関する理論的分析はまだ提供されておらず、特に時系列の不規則性が予測にどのように影響するかは明らかではない。
制御微分方程式(CDE)のリッチ理論と深部ニューラルネットワークの複雑さのリプシッツに基づく測度を組み合わせることにより、NCDEの理論的理解に向けて第一歩を踏み出す。
最初の結果は、時系列データの正則性に依存するこのクラスの予測器に対する一般化である。
2回目では,cdesの流れの連続性を利用して,サンプリングバイアスと近似バイアスの両方について詳細な解析を行った。
最後に,ニューラルネット上での古典的近似結果がNCDEにどのように移行するかを示す。
我々の理論的結果は一連の実験によって検証される。
関連論文リスト
- Understanding Forgetting in Continual Learning with Linear Regression [21.8755265936716]
連続的な学習は、複数のタスクを逐次学習することに焦点を当てており、近年大きな注目を集めている。
線形回帰モデルにおいて, 線形回帰モデルをグラディエント・ディッセンス(Gradient Descent)を用いて, 忘れることの一般的な理論的解析を行う。
十分なデータサイズを考慮に入れれば、集団データ共分散行列の固有値が大きいタスクが後で訓練されるようなシーケンス内のタスクの配置は、忘れが増す傾向にあることを実証する。
論文 参考訳(メタデータ) (2024-05-27T18:33:37Z) - Towards Demystifying the Generalization Behaviors When Neural Collapse
Emerges [132.62934175555145]
Neural Collapse(NC)は、トレーニング末期(TPT)におけるディープニューラルネットワークのよく知られた現象である
本稿では,列車の精度が100%に達した後も,継続訓練がテストセットの精度向上に繋がる理由を理論的に説明する。
我々はこの新たに発見された性質を「非保守的一般化」と呼ぶ。
論文 参考訳(メタデータ) (2023-10-12T14:29:02Z) - Variational Bayesian Neural Networks via Resolution of Singularities [1.2183405753834562]
ベイズニューラルネットワーク(BNN)における変分推論の理論と実践に関連する特異学習理論(SLT)の重要性を提唱する。
本研究では, 下流予測性能, テストログ予測密度, 変動目標との相違点を取り巻く混乱を補う。
我々は,SLT補正形式を特異な後部分布に用いて,変分族自体の設計を知らせる。
論文 参考訳(メタデータ) (2023-02-13T00:32:49Z) - Theoretical analysis of deep neural networks for temporally dependent
observations [1.6752182911522522]
非線形時系列データのモデリングにおけるディープニューラルネットワークの理論的性質について検討する。
結果は、様々な数値シミュレーション設定とマクロ経済データセットへの応用を通してサポートされる。
論文 参考訳(メタデータ) (2022-10-20T18:56:37Z) - On the generalization of learning algorithms that do not converge [54.122745736433856]
ディープラーニングの一般化解析は、訓練が一定の点に収束すると仮定するのが一般的である。
最近の結果は、実際には勾配降下に最適化されたディープニューラルネットワークの重みは、しばしば無限に振動することを示している。
論文 参考訳(メタデータ) (2022-08-16T21:22:34Z) - Fluctuations, Bias, Variance & Ensemble of Learners: Exact Asymptotics
for Convex Losses in High-Dimension [25.711297863946193]
我々は、異なる、しかし相関のある特徴に基づいて訓練された一般化線形モデルの集合における揺らぎの研究の理論を開発する。
一般凸損失と高次元限界における正則化のための経験的リスク最小化器の結合分布の完全な記述を提供する。
論文 参考訳(メタデータ) (2022-01-31T17:44:58Z) - Multi-scale Feature Learning Dynamics: Insights for Double Descent [71.91871020059857]
一般化誤差の「二重降下」現象について検討する。
二重降下は、異なるスケールで学習される異なる特徴に起因する可能性がある。
論文 参考訳(メタデータ) (2021-12-06T18:17:08Z) - Optimization Variance: Exploring Generalization Properties of DNNs [83.78477167211315]
ディープニューラルネットワーク(DNN)のテストエラーは、しばしば二重降下を示す。
そこで本研究では,モデル更新の多様性を測定するために,新しい測度である最適化分散(OV)を提案する。
論文 参考訳(メタデータ) (2021-06-03T09:34:17Z) - A Dynamical Central Limit Theorem for Shallow Neural Networks [48.66103132697071]
平均極限の周りのゆらぎは、トレーニングを通して平均正方形に有界であることを証明する。
平均場ダイナミクスがトレーニングデータを補間する尺度に収束すると、最終的にCLTスケーリングにおいて偏差が消えることを示す。
論文 参考訳(メタデータ) (2020-08-21T18:00:50Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Equivariant online predictions of non-stationary time series [0.0]
モデル不特定条件下での統計的手法の理論的予測特性を解析する。
ランダムウォーク・ダイナミック・リニア・モデル(ランダムウォーク・ダイナミック・リニア・モデル)の特定のクラスが、正確なミニマックス予測密度を生成することを示す。
論文 参考訳(メタデータ) (2019-11-20T01:46:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。