論文の概要: Demand Forecasting in Bike-sharing Systems Based on A Multiple
Spatiotemporal Fusion Network
- arxiv url: http://arxiv.org/abs/2010.03027v2
- Date: Mon, 8 Nov 2021 12:34:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 16:29:53.910674
- Title: Demand Forecasting in Bike-sharing Systems Based on A Multiple
Spatiotemporal Fusion Network
- Title(参考訳): 複数の時空間核融合ネットワークに基づく自転車共有システムの需要予測
- Authors: Xiao Yan, Gang Kou, Feng Xiao, Dapeng Zhang, Xianghua Gan
- Abstract要約: BSSの需要予測には空間的・時間的ダイナミクスが不可欠である。
MSTF-Netは3D畳み込みネットワーク(3D-CNN)ブロック、理想的3D畳み込み長短期メモリ(E3D-LSTM)ブロック、完全接続ネットワークという複数のネットワークで構成されている。
2つの実世界のデータセットに対して、MSTF-Netは7つの最先端モデルより優れていることが示されている。
- 参考スコア(独自算出の注目度): 7.13331917356962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bike-sharing systems (BSSs) have become increasingly popular around the globe
and have attracted a wide range of research interests. In this paper, the
demand forecasting problem in BSSs is studied. Spatial and temporal features
are critical for demand forecasting in BSSs, but it is challenging to extract
spatiotemporal dynamics. Another challenge is to capture the relations between
spatiotemporal dynamics and external factors, such as weather, day-of-week, and
time-of-day. To address these challenges, we propose a multiple spatiotemporal
fusion network named MSTF-Net. MSTF-Net consists of multiple spatiotemporal
blocks: 3D convolutional network (3D-CNN) blocks, eidetic 3D convolutional long
short-term memory networks (E3D-LSTM) blocks, and fully-connected (FC) blocks.
Specifically, 3D-CNN blocks highlight extracting short-term spatiotemporal
dependence in each fragment (i.e., closeness, period, and trend); E3D-LSTM
blocks further extract long-term spatiotemporal dependence over all fragments;
FC blocks extract nonlinear correlations of external factors. Finally, the
latent representations of E3D-LSTM and FC blocks are fused to obtain the final
prediction. For two real-world datasets, it is shown that MSTF-Net outperforms
seven state-of-the-art models.
- Abstract(参考訳): 自転車シェアリングシステム(bsss)は世界中で人気が高まっており、幅広い研究の関心を集めている。
本稿では,BSSの需要予測問題について検討する。
空間的特徴と時間的特徴は,BSSの需要予測には重要であるが,時空間力学の抽出は困難である。
もう1つの課題は、時空間のダイナミクスと天気、週、時間といった外部要因の関係を捉えることである。
これらの課題に対処するために、MSTF-Netという複数の時空間融合ネットワークを提案する。
MSTF-Netは複数の時空間ブロックで構成されている: 3D畳み込みネットワーク(3D-CNN)ブロック、理想的3D畳み込み長期記憶ネットワーク(E3D-LSTM)ブロック、完全接続(FC)ブロック。
特に、3d-cnnブロックは、各フラグメントにおける短期の時空間依存の抽出(すなわち、近接性、周期、傾向)、e3d-lstmブロックは、すべてのフラグメントに対する長期の時空間依存の抽出、fcブロックは外部因子の非線形相関を抽出する。
最後に、E3D-LSTMとFCブロックの潜在表現を融合させて最終予測を得る。
2つの実世界のデータセットでは、mstf-netが7つの最先端モデルを上回ることが示されている。
関連論文リスト
- Fully-Connected Spatial-Temporal Graph for Multivariate Time-Series Data [50.84488941336865]
完全時空間グラフニューラルネットワーク(FC-STGNN)という新しい手法を提案する。
グラフ構築のために、時間的距離に基づいて、すべてのタイムスタンプにセンサーを接続する減衰グラフを設計する。
グラフ畳み込みのために,移動プールGNN層を用いたFCグラフ畳み込みを考案し,ST依存性を効果的に把握し,効率的な表現を学習する。
論文 参考訳(メタデータ) (2023-09-11T08:44:07Z) - TC-LIF: A Two-Compartment Spiking Neuron Model for Long-Term Sequential
Modelling [54.97005925277638]
潜在的な可能性や危険に関連する感覚的手がかりの同定は、長期間の遅延によって有用な手がかりを分離する無関係な事象によってしばしば複雑になる。
SNN(State-of-the-art spiking Neural Network)は、遠方のキュー間の長期的な時間的依存関係を確立する上で、依然として困難な課題である。
そこで本研究では,T-LIFとよばれる,生物学的にインスパイアされたTwo-compartment Leaky Integrate- and-Fireのスパイキングニューロンモデルを提案する。
論文 参考訳(メタデータ) (2023-08-25T08:54:41Z) - Global-to-Local Modeling for Video-based 3D Human Pose and Shape
Estimation [53.04781510348416]
フレーム内精度とフレーム間スムーズさにより,映像に基づく3次元人間のポーズと形状推定を評価する。
エンドツーエンドフレームワークGLoT(Global-to-Local Transformer)における長期的・短期的相関のモデル化を構造的に分離することを提案する。
我々のGLoTは、一般的なベンチマーク(3DPW、MPI-INF-3DHP、Human3.6M)において、最も低いモデルパラメータを持つ従来の最先端の手法を上回る。
論文 参考訳(メタデータ) (2023-03-26T14:57:49Z) - SST: Real-time End-to-end Monocular 3D Reconstruction via Sparse
Spatial-Temporal Guidance [71.3027345302485]
リアルタイムモノクル3D再構成は未解決の課題である。
視覚SLAMシステムからのスパース推定点を利用したエンドツーエンドの3D再構成ネットワークSSTを提案する。
SSTは、59FPSで高い推論速度を維持しながら、最先端の競合他社よりも優れています。
論文 参考訳(メタデータ) (2022-12-13T12:17:13Z) - SWTF: Sparse Weighted Temporal Fusion for Drone-Based Activity
Recognition [2.7677069267434873]
ドローンカメラによる人間活動認識(HAR)はコンピュータビジョン研究コミュニティから大きな注目を集めている。
本稿では,スパース標本化ビデオフレームを利用する新しいSparse Weighted Temporal Fusion (SWTF) モジュールを提案する。
提案されたモデルでは、各データセットで72.76%、92.56%、78.86%の精度が得られた。
論文 参考訳(メタデータ) (2022-11-10T12:45:43Z) - Spatio-Temporal Self-Attention Network for Video Saliency Prediction [13.873682190242365]
3D畳み込みニューラルネットワークは、コンピュータビジョンにおけるビデオタスクに対して有望な結果を得た。
本稿では,ビデオ・サリエンシ予測のための時空間自己注意3ネットワーク(STSANet)を提案する。
論文 参考訳(メタデータ) (2021-08-24T12:52:47Z) - Spatio-Temporal Representation Factorization for Video-based Person
Re-Identification [55.01276167336187]
本稿では、re-IDのための時空間表現分解モジュール(STRF)を提案する。
STRFはフレキシブルな新しい計算ユニットであり、re-IDのための既存のほとんどの3D畳み込みニューラルネットワークアーキテクチャと併用することができる。
実験により、STRFは様々なベースラインアーキテクチャの性能を向上し、新しい最先端の成果を示す。
論文 参考訳(メタデータ) (2021-07-25T19:29:37Z) - CMS-LSTM: Context-Embedding and Multi-Scale Spatiotemporal-Expression
LSTM for Video Prediction [19.60644766914721]
我々は,CMS-LSTMを用いてコンテキスト相関とマルチスケール時流を抽出する。
新たに導入されたブロックは、他の時間モデル(例えば、PredRNN、SACon-vLSTM)にもビデオ予測のための代表的特徴を提供する。
パラメータを減らして、MotionExpressionとTaxiのメトリクスに関する最先端の結果に到達します。
論文 参考訳(メタデータ) (2021-02-06T14:24:40Z) - Multi-Temporal Convolutions for Human Action Recognition in Videos [83.43682368129072]
複数の解像度で抽出できる新しい時間・時間的畳み込みブロックを提案する。
提案するブロックは軽量で,任意の3D-CNNアーキテクチャに統合可能である。
論文 参考訳(メタデータ) (2020-11-08T10:40:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。