論文の概要: Convolutional State Space Models for Long-Range Spatiotemporal Modeling
- arxiv url: http://arxiv.org/abs/2310.19694v1
- Date: Mon, 30 Oct 2023 16:11:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 19:20:52.554326
- Title: Convolutional State Space Models for Long-Range Spatiotemporal Modeling
- Title(参考訳): 長期時空間モデリングのための畳み込み状態空間モデル
- Authors: Jimmy T.H. Smith, Shalini De Mello, Jan Kautz, Scott W. Linderman,
Wonmin Byeon
- Abstract要約: ConvS5は、長距離時間モデリングのための効率的な変種である。
トランスフォーマーとConvNISTTMは、長い水平移動実験において、ConvLSTMより3倍速く、トランスフォーマーより400倍速くサンプルを生成する一方で、大幅に性能が向上した。
- 参考スコア(独自算出の注目度): 65.0993000439043
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effectively modeling long spatiotemporal sequences is challenging due to the
need to model complex spatial correlations and long-range temporal dependencies
simultaneously. ConvLSTMs attempt to address this by updating tensor-valued
states with recurrent neural networks, but their sequential computation makes
them slow to train. In contrast, Transformers can process an entire
spatiotemporal sequence, compressed into tokens, in parallel. However, the cost
of attention scales quadratically in length, limiting their scalability to
longer sequences. Here, we address the challenges of prior methods and
introduce convolutional state space models (ConvSSM) that combine the tensor
modeling ideas of ConvLSTM with the long sequence modeling approaches of state
space methods such as S4 and S5. First, we demonstrate how parallel scans can
be applied to convolutional recurrences to achieve subquadratic parallelization
and fast autoregressive generation. We then establish an equivalence between
the dynamics of ConvSSMs and SSMs, which motivates parameterization and
initialization strategies for modeling long-range dependencies. The result is
ConvS5, an efficient ConvSSM variant for long-range spatiotemporal modeling.
ConvS5 significantly outperforms Transformers and ConvLSTM on a long horizon
Moving-MNIST experiment while training 3X faster than ConvLSTM and generating
samples 400X faster than Transformers. In addition, ConvS5 matches or exceeds
the performance of state-of-the-art methods on challenging DMLab, Minecraft and
Habitat prediction benchmarks and enables new directions for modeling long
spatiotemporal sequences.
- Abstract(参考訳): 複雑な空間相関と長距離時間依存を同時にモデル化する必要があるため、長時空間列を効果的にモデル化することは困難である。
convlstmsは、再帰的なニューラルネットワークでテンソル値の状態を更新することでこれに対処するが、それらのシーケンシャルな計算によってトレーニングが遅くなる。
対照的に、トランスフォーマーは時空間列全体を並列に処理し、トークンに圧縮することができる。
しかしながら、注意のコストは2倍にスケールし、拡張性はより長いシーケンスに制限される。
本稿では、先行手法の課題に対処し、ConvLSTMのテンソルモデリングのアイデアとS4やS5のような状態空間メソッドのロングシーケンスモデリングのアプローチを組み合わせた畳み込み状態空間モデル(ConvSSM)を導入する。
まず,並列スキャンを畳み込み再帰に適用し,下位並列化と高速な自己回帰生成を実現する方法を示す。
次に,長距離依存関係をモデル化するためのパラメータ化と初期化戦略の動機となるconvssmとssmのダイナミクスの等価性を確立する。
その結果、ConvS5は、長距離時空間モデリングのための効率的なConvSSM変種である。
ConvS5 は Transformers と ConvLSTM を長距離移動MNIST 実験で上回り、ConvLSTM より3倍速く、Transformers より400倍速くサンプルを生成する。
さらに、ConvS5はDMLab、Minecraft、Habitatの予測ベンチマークに挑戦する最先端のメソッドのパフォーマンスと一致し、長い時空間シーケンスをモデリングするための新しい方向を可能にする。
関連論文リスト
- Latent Space Energy-based Neural ODEs [73.01344439786524]
本稿では,連続時間シーケンスデータを表現するために設計された深部力学モデルの新しいファミリを紹介する。
マルコフ連鎖モンテカルロの最大推定値を用いてモデルを訓練する。
発振システム、ビデオ、実世界の状態シーケンス(MuJoCo)の実験は、学習可能なエネルギーベース以前のODEが既存のものより優れていることを示している。
論文 参考訳(メタデータ) (2024-09-05T18:14:22Z) - Machine-Learned Closure of URANS for Stably Stratified Turbulence: Connecting Physical Timescales & Data Hyperparameters of Deep Time-Series Models [0.0]
我々は、非定常レイノルズ平均ナビエストークス方程式のクロージャモデリングのための時系列機械学習(ML)法を開発した。
我々は, 均一密度勾配により均一で安定に成層された崩壊SSTを考察した。
MLモデルがSSTの力学を正確に捉えるために必要な最小情報の時間尺度の比率は,流れのレイノルズ数と一致することがわかった。
論文 参考訳(メタデータ) (2024-04-24T18:58:00Z) - LongVQ: Long Sequence Modeling with Vector Quantization on Structured Memory [63.41820940103348]
自己保持機構の計算コストは、長いシーケンスの実用性を制限する。
我々はLongVQと呼ばれる新しい手法を提案し、長さ固定されたコードブックとしてグローバルな抽象化を圧縮する。
LongVQは動的グローバルパターンとローカルパターンを効果的に維持し、長距離依存性の問題の欠如を補うのに役立つ。
論文 参考訳(メタデータ) (2024-04-17T08:26:34Z) - Deep Latent State Space Models for Time-Series Generation [68.45746489575032]
状態空間ODEに従って進化する潜伏変数を持つ列の生成モデルLS4を提案する。
近年の深層状態空間モデル(S4)に着想を得て,LS4の畳み込み表現を利用して高速化を実現する。
LS4は, 実世界のデータセット上での限界分布, 分類, 予測スコアにおいて, 従来の連続時間生成モデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2022-12-24T15:17:42Z) - Liquid Structural State-Space Models [106.74783377913433]
Liquid-S4はLong-Range Arenaベンチマークで平均87.32%の性能を達成した。
全生音声コマンド認識では、データセットLiquid-S4は96.78%の精度で、S4と比較してパラメータ数が30%減少している。
論文 参考訳(メタデータ) (2022-09-26T18:37:13Z) - Traversing Time with Multi-Resolution Gaussian Process State-Space
Models [17.42262122708566]
本稿では,複数のコンポーネントで構成されたガウス的プロセス状態空間アーキテクチャを提案する。
半合成データとエンジンモデリングタスクに新しい手法をベンチマークする。
どちらの実験でも、我々のアプローチは1つの時間スケールでしか動作しない最先端の代替手段と良好に比較できる。
論文 参考訳(メタデータ) (2021-12-06T18:39:27Z) - Alternating ConvLSTM: Learning Force Propagation with Alternate State
Updates [29.011464047344614]
本稿では, 変形可能な物体の力伝達機構をモデル化した交互畳み込み長短期記憶(Alt-ConvLSTM)を提案する。
数値PDE解法のフォワード法において,この手法が第1項と第2項の交互更新を模倣することを示す。
ヒト軟組織シミュレーションにおけるAlt-ConvLSTMの有効性を検討した。
論文 参考訳(メタデータ) (2020-06-14T06:43:33Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。