論文の概要: SimVP: Towards Simple yet Powerful Spatiotemporal Predictive Learning
- arxiv url: http://arxiv.org/abs/2211.12509v1
- Date: Tue, 22 Nov 2022 08:01:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 15:41:07.898414
- Title: SimVP: Towards Simple yet Powerful Spatiotemporal Predictive Learning
- Title(参考訳): simvp: シンプルでパワフルな時空間予測学習を目指して
- Authors: Cheng Tan, Zhangyang Gao, Stan Z. Li
- Abstract要約: 本稿では,畳み込みネットワーク上に構築された単純な2次時間予測ベースラインモデルであるSimVPを提案する。
SimVPは、様々なベンチマークデータセットで優れたパフォーマンスを達成することができる。
- 参考スコア(独自算出の注目度): 37.937378787812264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed remarkable advances in spatiotemporal predictive
learning, incorporating auxiliary inputs, elaborate neural architectures, and
sophisticated training strategies. Although impressive, the system complexity
of mainstream methods is increasing as well, which may hinder the convenient
applications. This paper proposes SimVP, a simple spatiotemporal predictive
baseline model that is completely built upon convolutional networks without
recurrent architectures and trained by common mean squared error loss in an
end-to-end fashion. Without introducing any extra tricks and strategies, SimVP
can achieve superior performance on various benchmark datasets. To further
improve the performance, we derive variants with the gated spatiotemporal
attention translator from SimVP that can achieve better performance. We
demonstrate that SimVP has strong generalization and extensibility on
real-world datasets through extensive experiments. The significant reduction in
training cost makes it easier to scale to complex scenarios. We believe SimVP
can serve as a solid baseline to benefit the spatiotemporal predictive learning
community.
- Abstract(参考訳): 近年、時空間予測学習の顕著な進歩が見られ、補助的な入力、精巧なニューラルアーキテクチャ、洗練されたトレーニング戦略が取り入れられている。
印象的ではあるが、主流メソッドのシステムの複雑さも増加しており、便利なアプリケーションを妨げる可能性がある。
本稿では,再帰的なアーキテクチャを伴わずに畳み込みネットワーク上に構築され,エンドツーエンドで一般的な平均二乗誤差損失によってトレーニングされる,単純な時空間予測ベースラインモデルであるsimvpを提案する。
追加のトリックや戦略を導入することなく、simvpは様々なベンチマークデータセットで優れたパフォーマンスを達成できる。
さらなる性能向上のために,SimVP から有声時空間注意変換器を用いた変種を導出し,より優れた性能を実現する。
実験により,SimVPは実世界のデータセットに対して強力な一般化と拡張性を持つことを示した。
トレーニングコストの大幅な削減により、複雑なシナリオへのスケールアップが容易になる。
simvpは時空間予測学習コミュニティに利益をもたらすための確固たるベースラインとして機能できると考えています。
関連論文リスト
- The Trifecta: Three simple techniques for training deeper
Forward-Forward networks [0.0]
本稿では,より深いネットワーク上でのフォワード・フォワードアルゴリズムを大幅に改善する3つの手法のコレクションを提案する。
我々の実験は、我々のモデルが、単純なデータセットのトレーニング速度とテスト精度の両方において、同様に構造化されたバックプロパゲーションベースのモデルと同等であることを示した。
論文 参考訳(メタデータ) (2023-11-29T22:44:32Z) - DTC: Deep Tracking Control [16.2850135844455]
本研究では,両世界の強靭性,フット配置精度,地形の一般化を両世界の利点と組み合わせたハイブリッド制御アーキテクチャを提案する。
深層ニューラルネットワークポリシは、最適化された足場を追跡することを目的として、シミュレーションでトレーニングされている。
モデルベースに比べて滑りやすい地盤や変形可能な地盤が存在する場合の強靭性を示す。
論文 参考訳(メタデータ) (2023-09-27T07:57:37Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Hindsight States: Blending Sim and Real Task Elements for Efficient
Reinforcement Learning [61.3506230781327]
ロボット工学では、第一原理から導かれた力学モデルに基づくシミュレーションに基づいて、トレーニングデータを生成する方法がある。
ここでは、力学の複雑さの不均衡を利用して、より標本効率のよい学習を行う。
提案手法をいくつかの課題に対して検証し,既存の近視アルゴリズムと組み合わせた場合の学習改善を実証する。
論文 参考訳(メタデータ) (2023-03-03T21:55:04Z) - Offline Q-Learning on Diverse Multi-Task Data Both Scales And
Generalizes [100.69714600180895]
オフラインのQ-ラーニングアルゴリズムは、モデルキャパシティでスケールする強力なパフォーマンスを示す。
最大8000万のパラメータネットワークを用いて,40のゲームに対してほぼ人間に近いパフォーマンスで1つのポリシーをトレーニングする。
リターン条件付き教師付きアプローチと比較して、オフラインQラーニングはモデルキャパシティと同様にスケールし、特にデータセットが最適以下である場合にはパフォーマンスが向上する。
論文 参考訳(メタデータ) (2022-11-28T08:56:42Z) - SimVP: Simpler yet Better Video Prediction [38.42917984016527]
本稿では,CNNで完全に構築された単純なビデオ予測モデルであるSimVPを提案する。
5つのベンチマークデータセットで最先端のパフォーマンスを実現する。
我々は、SimVPがビデオ予測のさらなる発展を刺激するために、安定したベースラインとして機能できると考えている。
論文 参考訳(メタデータ) (2022-06-09T02:03:21Z) - Training Efficiency and Robustness in Deep Learning [2.6451769337566406]
ディープラーニングモデルのトレーニング効率と堅牢性を改善するためのアプローチについて検討する。
より情報的なトレーニングデータに基づく学習の優先順位付けは収束速度を高め、テストデータに対する一般化性能を向上させる。
トレーニングデータのサンプリングに対する冗長性を考慮した修正により、トレーニング速度が向上し、トレーニング信号の多様性を検出する効率的な方法が開発されていることを示す。
論文 参考訳(メタデータ) (2021-12-02T17:11:33Z) - TRAIL: Near-Optimal Imitation Learning with Suboptimal Data [100.83688818427915]
オフラインデータセットを使用してファクタードトランジションモデルを学習するトレーニング目標を提案する。
我々の理論的分析は、学習された潜在行動空間が下流模倣学習のサンプル効率を高めることを示唆している。
実際に潜伏行動空間を学習するために、エネルギーベースの遷移モデルを学ぶアルゴリズムTRAIL(Transition-Reparametrized Actions for Imitation Learning)を提案する。
論文 参考訳(メタデータ) (2021-10-27T21:05:00Z) - On the Theory of Reinforcement Learning with Once-per-Episode Feedback [120.5537226120512]
本稿では,エピソード終盤に一度だけフィードバックを受ける強化学習の理論を紹介する。
これは、学習者が毎回フィードバックを受け取るという従来の要件よりも、現実世界のアプリケーションの代表的です。
論文 参考訳(メタデータ) (2021-05-29T19:48:51Z) - RPN: A Residual Pooling Network for Efficient Federated Learning [20.363206529396948]
我々はResidual Pooling Network(RPN)と呼ばれる新しい圧縮戦略を提案する。
RPNはデータ転送を効果的に削減するが、標準のフェデレート学習と比べてほぼ同じ性能を達成する。
我々の新しいアプローチはエンドツーエンドのプロシージャとして機能し、CNNベースのモデルトレーニングシナリオにも容易に適用できるはずです。
論文 参考訳(メタデータ) (2020-01-23T15:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。