論文の概要: OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning
- arxiv url: http://arxiv.org/abs/2306.11249v2
- Date: Wed, 18 Oct 2023 00:02:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 19:59:59.345077
- Title: OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning
- Title(参考訳): OpenSTL: 時空間予測学習の総合ベンチマーク
- Authors: Cheng Tan, Siyuan Li, Zhangyang Gao, Wenfei Guan, Zedong Wang, Zicheng
Liu, Lirong Wu, Stan Z. Li
- Abstract要約: 提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
- 参考スコア(独自算出の注目度): 67.07363529640784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatio-temporal predictive learning is a learning paradigm that enables
models to learn spatial and temporal patterns by predicting future frames from
given past frames in an unsupervised manner. Despite remarkable progress in
recent years, a lack of systematic understanding persists due to the diverse
settings, complex implementation, and difficult reproducibility. Without
standardization, comparisons can be unfair and insights inconclusive. To
address this dilemma, we propose OpenSTL, a comprehensive benchmark for
spatio-temporal predictive learning that categorizes prevalent approaches into
recurrent-based and recurrent-free models. OpenSTL provides a modular and
extensible framework implementing various state-of-the-art methods. We conduct
standard evaluations on datasets across various domains, including synthetic
moving object trajectory, human motion, driving scenes, traffic flow and
weather forecasting. Based on our observations, we provide a detailed analysis
of how model architecture and dataset properties affect spatio-temporal
predictive learning performance. Surprisingly, we find that recurrent-free
models achieve a good balance between efficiency and performance than recurrent
models. Thus, we further extend the common MetaFormers to boost recurrent-free
spatial-temporal predictive learning. We open-source the code and models at
https://github.com/chengtan9907/OpenSTL.
- Abstract(参考訳): 時空間予測学習は、モデルが与えられた過去のフレームから教師なしの方法で将来のフレームを予測することによって、空間的および時間的パターンを学習できる学習パラダイムである。
近年の顕著な進歩にもかかわらず、様々な設定、複雑な実装、難しい再現性のために体系的な理解が欠如している。
標準化がなければ、比較は不公平であり、洞察は決定的ではない。
このジレンマに対処するために,我々は,時空間予測学習のための包括的ベンチマークであるopenstlを提案する。
OpenSTLは、様々な最先端メソッドを実装するモジュラーで拡張可能なフレームワークを提供する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
本報告では,モデルアーキテクチャとデータセット特性が時空間予測学習性能に与える影響を詳細に分析する。
驚くべきことに、リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
そこで我々は,MetaFormerを拡張して,再帰的空間時間予測学習を促進する。
コードとモデルはhttps://github.com/chengtan9907/OpenSTL.orgで公開しています。
関連論文リスト
- Multi-Modality Spatio-Temporal Forecasting via Self-Supervised Learning [11.19088022423885]
そこで本稿では,MoSSL を利用した新しい学習フレームワークを提案する。
2つの実世界のMOSTデータセットの結果は、最先端のベースラインと比較して、我々のアプローチの優位性を検証する。
論文 参考訳(メタデータ) (2024-05-06T08:24:06Z) - GATGPT: A Pre-trained Large Language Model with Graph Attention Network
for Spatiotemporal Imputation [19.371155159744934]
実世界の環境では、センサーの故障やデータ転送エラーなどの問題により、そのようなデータには欠落する要素がしばしば含まれる。
時間的計算の目的は、観測された時系列における固有の空間的および時間的関係を理解することによって、これらの欠落値を推定することである。
伝統的に、複雑な時間的計算は特定のアーキテクチャに依存しており、適用可能性の制限と高い計算複雑性に悩まされている。
対照的に、我々のアプローチは、事前訓練された大規模言語モデル(LLM)を複雑な時間的インプットに統合し、画期的なフレームワークであるGATGPTを導入している。
論文 参考訳(メタデータ) (2023-11-24T08:15:11Z) - Revisiting the Temporal Modeling in Spatio-Temporal Predictive Learning
under A Unified View [73.73667848619343]
UTEP(Unified S-Temporal Predictive Learning)は,マイクロテンポラリスケールとマクロテンポラリスケールを統合した再帰的および再帰的フリーな手法を再構築する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2023-10-09T16:17:42Z) - Disentangling Spatial and Temporal Learning for Efficient Image-to-Video
Transfer Learning [59.26623999209235]
ビデオの空間的側面と時間的側面の学習を両立させるDiSTを提案する。
DiSTの非絡み合い学習は、大量の事前学習パラメータのバックプロパゲーションを避けるため、非常に効率的である。
5つのベンチマークの大規模な実験は、DiSTが既存の最先端メソッドよりも優れたパフォーマンスを提供することを示す。
論文 参考訳(メタデータ) (2023-09-14T17:58:33Z) - Leaping Into Memories: Space-Time Deep Feature Synthesis [93.10032043225362]
内部モデルから映像を合成するアーキテクチャ非依存の手法であるLEAPSを提案する。
我々は,Kineetics-400に基づく多種多様なアーキテクチャの進化的注目を反転させることにより,LEAPSの適用性を定量的かつ定性的に評価する。
論文 参考訳(メタデータ) (2023-03-17T12:55:22Z) - TempSAL -- Uncovering Temporal Information for Deep Saliency Prediction [64.63645677568384]
本稿では,逐次時間間隔でサリエンシマップを出力する新たなサリエンシ予測モデルを提案する。
提案手法は,学習した時間マップを組み合わせることで,サリエンシ予測を局所的に調整する。
私たちのコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2023-01-05T22:10:16Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。