論文の概要: Universal Time-Uniform Trajectory Approximation for Random Dynamical
Systems with Recurrent Neural Networks
- arxiv url: http://arxiv.org/abs/2211.08018v1
- Date: Tue, 15 Nov 2022 10:03:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 12:56:07.777968
- Title: Universal Time-Uniform Trajectory Approximation for Random Dynamical
Systems with Recurrent Neural Networks
- Title(参考訳): リカレントニューラルネットワークを用いたランダム力学系の普遍時間一様軌道近似
- Authors: Adrian N. Bishop
- Abstract要約: 無限の時間的地平線上のランダムな軌道は、特定の種類の深い再帰ニューラルネットワークによって、一様に、任意の所望の精度に近似することができることを示す。
ここで必要なモデル条件は自然で、穏やかで、テストが簡単で、証明は非常に簡単です。
- 参考スコア(独自算出の注目度): 0.7614628596146599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The capability of recurrent neural networks to approximate trajectories of a
random dynamical system, with random inputs, on non-compact domains, and over
an indefinite or infinite time horizon is considered. The main result states
that certain random trajectories over an infinite time horizon may be
approximated to any desired accuracy, uniformly in time, by a certain class of
deep recurrent neural networks, with simple feedback structures. The
formulation here contrasts with related literature on this topic, much of which
is restricted to compact state spaces and finite time intervals. The model
conditions required here are natural, mild, and easy to test, and the proof is
very simple.
- Abstract(参考訳): ランダムな入力を含むランダムな力学系の軌道を非コンパクトな領域上で近似し、不定値あるいは無限の時間軸上の再帰的ニューラルネットワークの能力について考察する。
主な結果は、無限の時間軸上のあるランダムな軌道は、単純なフィードバック構造を持つ特定のディープリカレントニューラルネットワークのクラスによって、任意の所望の精度に近似される可能性がある、ということである。
ここでの定式化は、この話題に関する関連する文献と対照的であり、その多くはコンパクトな状態空間と有限時間間隔に制限されている。
ここで必要なモデル条件は自然で、穏やかで、テストが簡単で、証明は非常に簡単です。
関連論文リスト
- Time-Parameterized Convolutional Neural Networks for Irregularly Sampled
Time Series [26.77596449192451]
不規則にサンプリングされた時系列は、いくつかのアプリケーション領域でユビキタスであり、スパースであり、完全に観測されていない、非整合的な観察に繋がる。
標準シーケンシャルニューラルネットワーク(RNN)と畳み込みニューラルネットワーク(CNN)は、観測時間間の定期的な間隔を考慮し、不規則な時系列モデリングに重大な課題を提起する。
時間的に不規則なカーネルを用いて畳み込み層をパラメータ化する。
論文 参考訳(メタデータ) (2023-08-06T21:10:30Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Bayesian Inference of Stochastic Dynamical Networks [0.0]
本稿では,ネットワークトポロジと内部ダイナミクスを学習するための新しい手法を提案する。
グループスパースベイズ学習(GSBL)、BINGO、カーネルベースの方法、dynGENIE3、genIE3、ARNIと比較される。
本手法は,グループスパースベイズ学習 (GSBL), BINGO, kernel-based method, dynGENIE3, GENIE3, ARNI と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-06-02T03:22:34Z) - STONet: A Neural-Operator-Driven Spatio-temporal Network [38.5696882090282]
グラフベースのグラフ時間ニューラルネットワークは、不規則にサンプリングされた離散点間の空間依存性をモデル化するのに有効である。
本稿では,空間連続的な物理量の力学を規定するメカニズムを学習する,PDEのためのニューラル演算子に基づく時間的枠組みを提案する。
実験では,空間的連続的な物理量の予測におけるモデルの性能と,時間的不規則なデータの処理能力に優れていた。
論文 参考訳(メタデータ) (2022-04-18T17:20:12Z) - Consistency of mechanistic causal discovery in continuous-time using
Neural ODEs [85.7910042199734]
ダイナミカルシステムの研究において,連続時間における因果的発見を検討する。
本稿では,ニューラルネットワークを用いた因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-06T08:48:02Z) - Stochastic Recurrent Neural Network for Multistep Time Series
Forecasting [0.0]
我々は、時系列予測のための繰り返しニューラルネットワークの適応を提案するために、深部生成モデルと状態空間モデルの概念の進歩を活用する。
私たちのモデルは、すべての関連情報が隠された状態でカプセル化されるリカレントニューラルネットワークのアーキテクチャ的な動作を保ち、この柔軟性により、モデルはシーケンシャルモデリングのために任意のディープアーキテクチャに簡単に統合できます。
論文 参考訳(メタデータ) (2021-04-26T01:43:43Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Supporting Optimal Phase Space Reconstructions Using Neural Network
Architecture for Time Series Modeling [68.8204255655161]
位相空間特性を暗黙的に学習する機構を持つ人工ニューラルネットワークを提案する。
私たちのアプローチは、ほとんどの最先端戦略と同じくらいの競争力があるか、あるいは優れているかのどちらかです。
論文 参考訳(メタデータ) (2020-06-19T21:04:47Z) - A Shooting Formulation of Deep Learning [19.51427735087011]
本稿では,ネットワーク層ごとのパラメータ化から,最適ネットワーク上でのパラメータ化へと視点を転換するシューティング定式化を提案する。
拡張性のために,連続深度ニューラルネットワークの最適重み軌跡を同定する新しい粒子アンサンブルパラメトリゼーションを提案する。
論文 参考訳(メタデータ) (2020-06-18T07:36:04Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Time Dependence in Non-Autonomous Neural ODEs [74.78386661760662]
時変重みを持つニューラルODEの新しいファミリーを提案する。
我々は、速度と表現能力の両面で、従来のニューラルODEの変形よりも優れていた。
論文 参考訳(メタデータ) (2020-05-05T01:41:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。