論文の概要: Revealing hidden dynamics from time-series data by ODENet
- arxiv url: http://arxiv.org/abs/2005.04849v2
- Date: Fri, 16 Oct 2020 03:59:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 21:03:16.642523
- Title: Revealing hidden dynamics from time-series data by ODENet
- Title(参考訳): ODENetによる時系列データからの隠れたダイナミクスの探索
- Authors: Pipi Hu, Wuyue Yang, Yi Zhu, Liu Hong
- Abstract要約: 常微分方程式ネットワーク(ODENet)と呼ばれる新しいタイプの解釈可能なネットワークを提案する。
ODEの埋め込みは、ODEの成熟した理論の恩恵を受け、フレームワークをより解釈しやすいものにします。
ODENetは、大きなノイズがあっても時系列データを処理できる優れた機能を示している。
- 参考スコア(独自算出の注目度): 5.065265250700039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To derive the hidden dynamics from observed data is one of the fundamental
but also challenging problems in many different fields. In this study, we
propose a new type of interpretable network called the ordinary differential
equation network (ODENet), in which the numerical integration of explicit
ordinary differential equations (ODEs) are embedded into the machine learning
scheme to build a general framework for revealing the hidden dynamics buried in
massive time-series data efficiently and reliably. ODENet takes full advantage
of both machine learning algorithms and ODE modeling. On one hand, the
embedding of ODEs makes the framework more interpretable benefiting from the
mature theories of ODEs. On the other hand, the schemes of machine learning
enable data handling, paralleling, and optimization to be easily and
efficiently implemented. From classical Lotka-Volterra equations to chaotic
Lorenz equations, the ODENet exhibits its remarkable capability in handling
time-series data even in the presence of large noise. We further apply the
ODENet to real actin aggregation data, which shows an impressive performance as
well. These results demonstrate the superiority of ODENet in dealing with noisy
data, data with either non-equal spacing or large sampling time steps over
other traditional machine learning algorithms.
- Abstract(参考訳): 観測データから隠れたダイナミクスを導き出すことは、多くの異なる分野における基本的な問題であるが挑戦的な問題の1つである。
本研究では,明示的な常微分方程式(odes)の数値積分を機械学習に組み込んで,大規模時系列データに埋もれた隠れたダイナミクスを効率的に確実に明らかにするための汎用フレームワークを構築する,常微分方程式ネットワーク(odenet)と呼ばれる新しいタイプの解釈ネットワークを提案する。
ODENetは機械学習アルゴリズムとODEモデリングの両方をフル活用しています。
一方、ODEの埋め込みは、ODEの成熟した理論の恩恵を受け、フレームワークをより解釈しやすいものにします。
一方,機械学習では,データの処理,並列化,最適化が容易かつ効率的に実装できる。
古典的なロトカ・ボルテラ方程式からカオス的なロレンツ方程式まで、ODENetは大きなノイズがあっても時系列データを処理できる優れた能力を示している。
我々は、odenetを実際のアクチン集約データに適用し、印象的なパフォーマンスを示している。
これらの結果は、従来の機械学習アルゴリズムよりも、不等間隔または大きなサンプリング時間ステップを持つデータであるノイズデータを扱う際のodenetの優位性を示している。
関連論文リスト
- FMint: Bridging Human Designed and Data Pretrained Models for Differential Equation Foundation Model [5.748690310135373]
我々は、人間設計モデルとデータ駆動モデルとのギャップを埋めるために、textbfFMintという新しいマルチモーダル基盤モデルを提案する。
FMintは、インコンテキスト学習を備えたデコーダのみのトランスフォーマーアーキテクチャに基づいて、数値データとテキストデータの両方を用いて、普遍的なエラー訂正スキームを学習する。
本研究は,従来の数値解法と比較して,精度と効率の両面から提案モデルの有効性を実証するものである。
論文 参考訳(メタデータ) (2024-04-23T02:36:47Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Foundational Inference Models for Dynamical Systems [5.549794481031468]
我々は,ODEによって決定されると仮定される時系列データの欠落を補うという古典的な問題に対して,新たな視点を提供する。
本稿では,いくつかの(隠れた)ODEを満たすパラメトリック関数を通じて,ゼロショット時系列計算のための新しい教師付き学習フレームワークを提案する。
我々は,1と同一(事前学習)の認識モデルが,63個の異なる時系列に対してゼロショット計算を行なえることを実証的に実証した。
論文 参考訳(メタデータ) (2024-02-12T11:48:54Z) - Generative Modeling of Regular and Irregular Time Series Data via Koopman VAEs [50.25683648762602]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
KoVAEは、いくつかの挑戦的な合成および実世界の時系列生成ベンチマークにおいて、最先端のGANおよびVAEメソッドより優れている。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - CoDBench: A Critical Evaluation of Data-driven Models for Continuous
Dynamical Systems [8.410938527671341]
微分方程式を解くための11の最先端データ駆動モデルからなる総合ベンチマークスイートであるCodBenchを紹介する。
具体的には、Viz.、フィードフォワードニューラルネットワーク、ディープオペレータ回帰モデル、周波数ベースのニューラル演算子、トランスフォーマーアーキテクチャの4つの異なるカテゴリを評価する。
我々は、学習におけるオペレータの能力、ゼロショット超解像、データ効率、ノイズに対する堅牢性、計算効率を評価する広範な実験を行う。
論文 参考訳(メタデータ) (2023-10-02T21:27:54Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - On the balance between the training time and interpretability of neural
ODE for time series modelling [77.34726150561087]
本稿は,現代のニューラルODEを,時系列モデリングアプリケーションのためのより単純なモデルに還元することはできないことを示す。
ニューラルODEの複雑さは、従来の時系列モデリングツールと比較されるか、超える。
本稿では,ニューラルネットワークとODEシステムを用いた時系列モデリングの新しい視点を提案する。
論文 参考訳(メタデータ) (2022-06-07T13:49:40Z) - Learning differential equations from data [0.0]
近年,データ量の多さから,データから微分方程式モデルを学習するためのデータ駆動手法の探索が活発に行われている。
本稿では,複数の隠蔽層と異なるニューラルネットワーク幅を用いて,データからODEを学習することで,フォワード・オイラーに基づくニューラルネットワークモデルを提案し,その性能を検証した。
論文 参考訳(メタデータ) (2022-05-23T17:36:28Z) - Neural ODEs with Irregular and Noisy Data [8.349349605334316]
ノイズや不規則なサンプル測定を用いて微分方程式を学習する手法について議論する。
我々の方法論では、ディープニューラルネットワークとニューラル常微分方程式(ODE)アプローチの統合において、大きな革新が見られる。
ベクトル場を記述するモデルを学習するためのフレームワークは,雑音測定において非常に効果的である。
論文 参考訳(メタデータ) (2022-05-19T11:24:41Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。