論文の概要: Estimating Vector Fields from Noisy Time Series
- arxiv url: http://arxiv.org/abs/2012.03199v1
- Date: Sun, 6 Dec 2020 07:27:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 07:31:53.224793
- Title: Estimating Vector Fields from Noisy Time Series
- Title(参考訳): ノイズ時系列からのベクトル場の推定
- Authors: Harish S. Bhat, Majerle Reeves, Ramin Raziperchikolaei
- Abstract要約: 一次元神経形状関数のテンソル積からなるニューラルネットワークアーキテクチャについて述べる。
ニューラルネットワークの近似特性はニューラル形状関数アーキテクチャで維持されている。
また、我々のニューラル形状関数法と既存の微分方程式学習法を交互に最小化と複数軌跡に組み合わせて検討した。
- 参考スコア(独自算出の注目度): 6.939768185086753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While there has been a surge of recent interest in learning differential
equation models from time series, methods in this area typically cannot cope
with highly noisy data. We break this problem into two parts: (i) approximating
the unknown vector field (or right-hand side) of the differential equation, and
(ii) dealing with noise. To deal with (i), we describe a neural network
architecture consisting of tensor products of one-dimensional neural shape
functions. For (ii), we propose an alternating minimization scheme that
switches between vector field training and filtering steps, together with
multiple trajectories of training data. We find that the neural shape function
architecture retains the approximation properties of dense neural networks,
enables effective computation of vector field error, and allows for graphical
interpretability, all for data/systems in any finite dimension $d$. We also
study the combination of either our neural shape function method or existing
differential equation learning methods with alternating minimization and
multiple trajectories. We find that retrofitting any learning method in this
way boosts the method's robustness to noise. While in their raw form the
methods struggle with 1% Gaussian noise, after retrofitting, they learn
accurate vector fields from data with 10% Gaussian noise.
- Abstract(参考訳): 時系列から微分方程式モデルを学ぶことに対する近年の関心は高まっているが、この領域の手法は一般に、非常に騒がしいデータを扱うことができない。
この問題を、(i)微分方程式の未知ベクトル場(または右辺)を近似すること、(ii)雑音を扱うことの2つの部分に分けられる。
i) に対処するため, 1次元神経形状関数のテンソル積からなるニューラルネットワークアーキテクチャについて述べる。
第二に,ベクトル場学習とフィルタリングステップを切り替える交代最小化方式と,学習データの複数の軌跡を同時に提案する。
ニューラルシェイプ関数のアーキテクチャは、密集したニューラルネットワークの近似性を保持し、ベクトル場誤差の効果的な計算を可能にし、すべての有限次元のデータ/システムに対してグラフィカルな解釈を可能にしている。
また、我々のニューラル形状関数法と既存の微分方程式学習法を交互に最小化と複数軌跡に組み合わせて検討した。
この方法で学習手法を再構成することで,ノイズに対する手法の堅牢性を高めることができる。
生の状態では、手法は1%ガウスノイズに苦しむが、レトロフィッティングの後、10%ガウスノイズのデータから正確なベクトル場を学習する。
関連論文リスト
- Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
ニューラル作用素におけるベイズの不確かさを近似する新しい枠組みを導入する。
我々の手法は関数型プログラミングからカリー化の概念の確率論的類似体と解釈できる。
我々は、異なるタイプの偏微分方程式への応用を通して、我々のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Embedding stochastic differential equations into neural networks via
dual processes [0.0]
本稿では、微分方程式の予測のためのニューラルネットワーク構築のための新しいアプローチを提案する。
提案手法は入力と出力のデータセットを必要としない。
実演として,Ornstein-Uhlenbeck プロセスと van der Pol システムのためのニューラルネットワークを構築した。
論文 参考訳(メタデータ) (2023-06-08T00:50:16Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Neural ODEs with Irregular and Noisy Data [8.349349605334316]
ノイズや不規則なサンプル測定を用いて微分方程式を学習する手法について議論する。
我々の方法論では、ディープニューラルネットワークとニューラル常微分方程式(ODE)アプローチの統合において、大きな革新が見られる。
ベクトル場を記述するモデルを学習するためのフレームワークは,雑音測定において非常に効果的である。
論文 参考訳(メタデータ) (2022-05-19T11:24:41Z) - NeuralEF: Deconstructing Kernels by Deep Neural Networks [47.54733625351363]
従来のNystr"om式に基づく非パラメトリックなソリューションはスケーラビリティの問題に悩まされる。
最近の研究はパラメトリックなアプローチ、すなわち固有関数を近似するためにニューラルネットワークを訓練している。
教師なしおよび教師なしの学習問題の空間に一般化する新たな目的関数を用いて,これらの問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-04-30T05:31:07Z) - A Neural Network Ensemble Approach to System Identification [0.6445605125467573]
軌道データから未知の制御方程式を学習するための新しいアルゴリズムを提案する。
ニューラルネットワークのアンサンブルを用いて関数の$f$を近似する。
論文 参考訳(メタデータ) (2021-10-15T21:45:48Z) - Learning Dynamics from Noisy Measurements using Deep Learning with a
Runge-Kutta Constraint [9.36739413306697]
そこで本研究では,雑音と疎サンプルを用いた微分方程式の学習手法について論じる。
我々の方法論では、ディープニューラルネットワークと古典的な数値積分法の統合において、大きな革新が見られる。
論文 参考訳(メタデータ) (2021-09-23T15:43:45Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。