論文の概要: A tensor network approach for chaotic time series prediction
- arxiv url: http://arxiv.org/abs/2505.17740v1
- Date: Fri, 23 May 2025 11:03:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.019013
- Title: A tensor network approach for chaotic time series prediction
- Title(参考訳): カオス時系列予測のためのテンソルネットワークアプローチ
- Authors: Rodrigo Martínez-Peña, Román Orús,
- Abstract要約: 本稿では,従来提案されていたテンソルネットワークモデルのカオス時系列予測への応用について検討する。
従来のエコー状態ネットワークと比較して精度と計算効率の面で優位性を示す。
現状のテンソルネットワークアプローチを用いて,テンソルネットワークと貯水池コンピューティングコミュニティのギャップを埋める。
- 参考スコア(独自算出の注目度): 1.03590082373586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Making accurate predictions of chaotic time series is a complex challenge. Reservoir computing, a neuromorphic-inspired approach, has emerged as a powerful tool for this task. It exploits the memory and nonlinearity of dynamical systems without requiring extensive parameter tuning. However, selecting and optimizing reservoir architectures remains an open problem. Next-generation reservoir computing simplifies this problem by employing nonlinear vector autoregression based on truncated Volterra series, thereby reducing hyperparameter complexity. Nevertheless, the latter suffers from exponential parameter growth in terms of the maximum monomial degree. Tensor networks offer a promising solution to this issue by decomposing multidimensional arrays into low-dimensional structures, thus mitigating the curse of dimensionality. This paper explores the application of a previously proposed tensor network model for predicting chaotic time series, demonstrating its advantages in terms of accuracy and computational efficiency compared to conventional echo state networks. Using a state-of-the-art tensor network approach enables us to bridge the gap between the tensor network and reservoir computing communities, fostering advances in both fields.
- Abstract(参考訳): カオス時系列の正確な予測は複雑な課題である。
ニューロモルフィックにインスパイアされたアプローチであるReservoir Computingが、このタスクの強力なツールとして登場した。
広範なパラメータチューニングを必要とせず、動的システムのメモリと非線形性を利用する。
しかし,貯水池アーキテクチャの選択と最適化は依然として未解決の問題である。
次世代貯水池計算は、トランケートされたボルテラ級数に基づく非線形ベクトル自己回帰を用いてこの問題を単純化し、ハイパーパラメータの複雑さを低減した。
それにもかかわらず、後者は最大単数次数の観点から指数的パラメータ成長に苦しむ。
テンソルネットワークは、多次元配列を低次元構造に分解し、次元性の呪いを和らげることで、この問題に対する有望な解決策を提供する。
本稿では、従来のエコー状態ネットワークと比較して精度と計算効率の面で優位性を実証し、カオス時系列の予測に先立って提案されたテンソルネットワークモデルの適用について検討する。
最先端のテンソルネットワークアプローチを用いることで、テンソルネットワークと貯水池コンピューティングコミュニティのギャップを埋め、両方の分野の進歩を育むことができる。
関連論文リスト
- Temporal Convolution Derived Multi-Layered Reservoir Computing [5.261277318790788]
貯水池の状態空間への入力データの新たなマッピングを提案する。
ニューラルネットワークの並列化性,深さ,予測能力を向上する2つの新しいネットワークアーキテクチャにこの手法を組み込む。
カオス時系列では、Echo State Networksと比較して最大85.45%、Gated Recurrent Unitsと比較して90.72%のエラー削減が観察される。
論文 参考訳(メタデータ) (2024-07-09T11:40:46Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Scalable Spatiotemporal Graph Neural Networks [14.415967477487692]
グラフニューラルネットワーク(GNN)は、しばしば予測アーキテクチャのコアコンポーネントである。
ほとんどの時間前GNNでは、計算複雑性はグラフ内のリンクの回数のシーケンスの長さの2乗係数までスケールする。
本稿では,時間的・空間的両方のダイナミックスを効率的に符号化するスケーラブルなアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-09-14T09:47:38Z) - Deep recurrent networks predicting the gap evolution in adiabatic
quantum computing [0.0]
ハミルトン問題を完全に同定するパラメータからギャップのパラメトリック依存への写像を発見するためのディープラーニングの可能性を探る。
本稿では,パラメータ空間がシステムサイズと線形にスケールする場合に,長期記憶ネットワークがギャップを予測することに成功していることを示す。
注目すべきは、このアーキテクチャがモデルの空間構造を扱うために畳み込みニューラルネットワークと組み合わされると、トレーニング中にニューラルネットワークで見られるものよりも大きなシステムサイズに対してギャップ進化を予測できることである。
論文 参考訳(メタデータ) (2021-09-17T12:08:57Z) - DeepSplit: Scalable Verification of Deep Neural Networks via Operator
Splitting [70.62923754433461]
入力摂動に対するディープニューラルネットワークの最悪の性能を分析することは、大規模な非最適化問題の解決につながる。
解析解を持つ小さなサブプロブレムに分割することで,問題の凸緩和を直接高精度に解ける新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T20:43:49Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Tensor-Train Networks for Learning Predictive Modeling of
Multidimensional Data [0.0]
有望な戦略は、物理的および化学的用途で非常に成功したテンソルネットワークに基づいています。
本研究では, 多次元回帰モデルの重みをテンソルネットワークを用いて学習し, 強力なコンパクト表現を実現することを示した。
TT形式の重みを計算力の低減で近似するための最小二乗を交互に行うアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-01-22T16:14:38Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。