論文の概要: SimVP: Towards Simple yet Powerful Spatiotemporal Predictive Learning
- arxiv url: http://arxiv.org/abs/2211.12509v3
- Date: Wed, 26 Apr 2023 02:53:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 17:56:55.156103
- Title: SimVP: Towards Simple yet Powerful Spatiotemporal Predictive Learning
- Title(参考訳): simvp: シンプルでパワフルな時空間予測学習を目指して
- Authors: Cheng Tan, Zhangyang Gao, Siyuan Li, Stan Z. Li
- Abstract要約: 本稿では,畳み込みネットワーク上に構築された単純な2次時間予測ベースラインモデルであるSimVPを提案する。
SimVPは、様々なベンチマークデータセットで優れたパフォーマンスを達成することができる。
- 参考スコア(独自算出の注目度): 44.486014516093334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed remarkable advances in spatiotemporal predictive
learning, incorporating auxiliary inputs, elaborate neural architectures, and
sophisticated training strategies. Although impressive, the system complexity
of mainstream methods is increasing as well, which may hinder the convenient
applications. This paper proposes SimVP, a simple spatiotemporal predictive
baseline model that is completely built upon convolutional networks without
recurrent architectures and trained by common mean squared error loss in an
end-to-end fashion. Without introducing any extra tricks and strategies, SimVP
can achieve superior performance on various benchmark datasets. To further
improve the performance, we derive variants with the gated spatiotemporal
attention translator from SimVP that can achieve better performance. We
demonstrate that SimVP has strong generalization and extensibility on
real-world datasets through extensive experiments. The significant reduction in
training cost makes it easier to scale to complex scenarios. We believe SimVP
can serve as a solid baseline to benefit the spatiotemporal predictive learning
community.
- Abstract(参考訳): 近年、時空間予測学習の顕著な進歩が見られ、補助的な入力、精巧なニューラルアーキテクチャ、洗練されたトレーニング戦略が取り入れられている。
印象的ではあるが、主流メソッドのシステムの複雑さも増加しており、便利なアプリケーションを妨げる可能性がある。
本稿では,再帰的なアーキテクチャを伴わずに畳み込みネットワーク上に構築され,エンドツーエンドで一般的な平均二乗誤差損失によってトレーニングされる,単純な時空間予測ベースラインモデルであるsimvpを提案する。
追加のトリックや戦略を導入することなく、simvpは様々なベンチマークデータセットで優れたパフォーマンスを達成できる。
さらなる性能向上のために,SimVP から有声時空間注意変換器を用いた変種を導出し,より優れた性能を実現する。
実験により,SimVPは実世界のデータセットに対して強力な一般化と拡張性を持つことを示した。
トレーニングコストの大幅な削減により、複雑なシナリオへのスケールアップが容易になる。
simvpは時空間予測学習コミュニティに利益をもたらすための確固たるベースラインとして機能できると考えています。
関連論文リスト
- Tao: Re-Thinking DL-based Microarchitecture Simulation [8.501776613988484]
既存のマイクロアーキテクチャシミュレータは、異なる側面で優れ、不足している。
ディープラーニング(DL)ベースのシミュレーションは驚くほど高速で、精度は極めて高いが、適切な低レベルのマイクロアーキテクチャのパフォーマンス指標を提供することができない。
本稿では,3つの主要な貢献により,DLに基づくシミュレーションを再設計するTAOを紹介する。
論文 参考訳(メタデータ) (2024-04-16T21:45:10Z) - Bridging the Sim-to-Real Gap with Bayesian Inference [53.61496586090384]
データからロボットダイナミクスを学習するためのSIM-FSVGDを提案する。
我々は、ニューラルネットワークモデルのトレーニングを規則化するために、低忠実度物理プリエンスを使用します。
高性能RCレースカーシステムにおけるSIM-to-realギャップのブリッジ化におけるSIM-FSVGDの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-25T11:29:32Z) - Predicting Traffic Flow with Federated Learning and Graph Neural with Asynchronous Computations Network [0.0]
我々はFLAGCN(Federated Learning and Asynchronous Graph Convolutional Networks)と呼ばれる新しいディープラーニング手法を提案する。
本フレームワークでは,リアルタイムトラフィックフロー予測の精度と効率を高めるために,非同期グラフ畳み込みネットワークとフェデレーション学習の原理を取り入れている。
論文 参考訳(メタデータ) (2024-01-05T09:36:42Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - Improving Sample Efficiency of Value Based Models Using Attention and
Vision Transformers [52.30336730712544]
性能を犠牲にすることなくサンプル効率を向上させることを目的とした深層強化学習アーキテクチャを提案する。
状態表現の特徴マップ上の自己注意機構を変換器を用いて学習する視覚的注意モデルを提案する。
我々は,このアーキテクチャがいくつかのAtari環境におけるサンプルの複雑さを向上すると同時に,いくつかのゲームにおいて優れたパフォーマンスを実現することを実証的に実証した。
論文 参考訳(メタデータ) (2022-02-01T19:03:03Z) - Deep Bayesian Active Learning for Accelerating Stochastic Simulation [74.58219903138301]
Interactive Neural Process(INP)は、シミュレーションとアクティブな学習アプローチのためのディープラーニングフレームワークである。
能動的学習のために,NPベースモデルの潜時空間で計算された新しい取得関数Latent Information Gain (LIG)を提案する。
その結果,STNPは学習環境のベースラインを上回り,LIGは能動学習の最先端を達成していることがわかった。
論文 参考訳(メタデータ) (2021-06-05T01:31:51Z) - Multi-objective Neural Architecture Search with Almost No Training [9.93048700248444]
本稿ではRWE(Random-Weight Evaluation)という,ネットワークアーキテクチャの性能を迅速に評価する手法を提案する。
RWEは、アーキテクチャを評価するための計算コストを数時間から秒に短縮する。
進化的多目的アルゴリズムに統合されると、RWEはCIFAR-10上で2時間以内で1枚のGPUカードを検索し、最先端の性能を持つ効率的なアーキテクチャの集合を得る。
論文 参考訳(メタデータ) (2020-11-27T07:39:17Z) - Federated Transfer Learning with Dynamic Gradient Aggregation [27.42998421786922]
本稿では,音響モデル学習のためのフェデレートラーニング(FL)シミュレーションプラットフォームを提案する。
提案するFLプラットフォームは,モジュール設計を取り入れたさまざまなタスクをサポートすることができる。
これは、収束速度と全体的なモデル性能の両方において、分散トレーニングの黄金標準よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-06T04:29:01Z) - STONNE: A Detailed Architectural Simulator for Flexible Neural Network
Accelerators [5.326345912766044]
STONNEはサイクル精度が高く、高度にモジュール化され、高度に拡張可能なシミュレーションフレームワークである。
一般に公開されているBSV符号化MAERIの実装の性能結果にどのように近づくかを示す。
論文 参考訳(メタデータ) (2020-06-10T19:20:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。