論文の概要: Spatiotemporal Implicit Neural Representation as a Generalized Traffic Data Learner
- arxiv url: http://arxiv.org/abs/2405.03185v2
- Date: Thu, 24 Oct 2024 01:20:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:49:27.929163
- Title: Spatiotemporal Implicit Neural Representation as a Generalized Traffic Data Learner
- Title(参考訳): 一般交通データ学習者としての時空間暗黙的ニューラル表現
- Authors: Tong Nie, Guoyang Qin, Wei Ma, Jian Sun,
- Abstract要約: 時空間交通データ(STTD)は、マルチスケール交通システムの複雑な動的挙動を測定する。
本稿では,STTDを暗黙的ニューラル表現としてパラメータ化することで,STTD学習問題に対処する新しいパラダイムを提案する。
実世界のシナリオにおける広範な実験を通じて,その有効性を検証し,廊下からネットワークスケールへの応用を示す。
- 参考スコア(独自算出の注目度): 46.866240648471894
- License:
- Abstract: Spatiotemporal Traffic Data (STTD) measures the complex dynamical behaviors of the multiscale transportation system. Existing methods aim to reconstruct STTD using low-dimensional models. However, they are limited to data-specific dimensions or source-dependent patterns, restricting them from unifying representations. Here, we present a novel paradigm to address the STTD learning problem by parameterizing STTD as an implicit neural representation. To discern the underlying dynamics in low-dimensional regimes, coordinate-based neural networks that can encode high-frequency structures are employed to directly map coordinates to traffic variables. To unravel the entangled spatial-temporal interactions, the variability is decomposed into separate processes. We further enable modeling in irregular spaces such as sensor graphs using spectral embedding. Through continuous representations, our approach enables the modeling of a variety of STTD with a unified input, thereby serving as a generalized learner of the underlying traffic dynamics. It is also shown that it can learn implicit low-rank priors and smoothness regularization from the data, making it versatile for learning different dominating data patterns. We validate its effectiveness through extensive experiments in real-world scenarios, showcasing applications from corridor to network scales. Empirical results not only indicate that our model has significant superiority over conventional low-rank models, but also highlight that the versatility of the approach extends to different data domains, output resolutions, and network topologies. Comprehensive model analyses provide further insight into the inductive bias of STTD. We anticipate that this pioneering modeling perspective could lay the foundation for universal representation of STTD in various real-world tasks. Code is available at https://github.com/tongnie/traffic_dynamics.
- Abstract(参考訳): 時空間交通データ(STTD)は、マルチスケール交通システムの複雑な動的挙動を測定する。
既存の方法は、低次元モデルを用いてSTTDを再構成することを目的としている。
しかし、これらはデータ固有のディメンションやソース依存パターンに制限されており、統一された表現を制限している。
本稿では,STTDを暗黙的ニューラル表現としてパラメータ化することで,STTD学習問題に対処する新しいパラダイムを提案する。
低次元レシエーションの基盤となるダイナミクスを識別するために、高周波数構造を符号化可能な座標ベースニューラルネットワークを用いて、座標をトラフィック変数に直接マッピングする。
絡み合った時空間相互作用を解き放つために、変動性は別々のプロセスに分解される。
さらに、スペクトル埋め込みを用いたセンサグラフのような不規則空間でのモデリングを可能にする。
本手法は, 連続表現により, 多様なSTTDを統一的な入力でモデル化し, 基礎となる交通力学の一般化学習者として機能する。
また、データから暗黙的に低ランクの先行と滑らかな正規化を学習でき、異なる支配的なデータパターンを学習するのに汎用性があることが示されている。
実世界のシナリオにおける広範な実験を通じて,その有効性を検証し,廊下からネットワークスケールへの応用を示す。
実験結果から,我々のモデルは従来の低ランクモデルよりも優れているだけでなく,アプローチの汎用性は異なるデータ領域,出力解像度,ネットワークトポロジにまで及んでいることが示唆された。
包括的モデル解析は、STTDの帰納バイアスに関するさらなる洞察を与える。
我々は、この先駆的なモデリングの観点から、様々な現実世界のタスクにおいて、STTDの普遍的な表現の基礎となることを期待する。
コードはhttps://github.com/tongnie/traffic_dynamics.comで入手できる。
関連論文リスト
- Principal Component Flow Map Learning of PDEs from Incomplete, Limited, and Noisy Data [0.0]
本稿では,力学系の進化をモデル化する計算手法を提案する。
本研究では,高次元非一様格子上の部分観測偏微分方程式(PDE)をモデル化する上での課題に着目する。
本稿では、状態変数や計算領域のサブセットでのみ利用可能なノイズと制限付きデータを用いたPDEモデリングに適したニューラルネットワーク構造を提案する。
論文 参考訳(メタデータ) (2024-07-15T16:06:20Z) - Generalizable Implicit Neural Representation As a Universal Spatiotemporal Traffic Data Learner [46.866240648471894]
時空間交通データ(STTD)は、マルチスケール交通システムの複雑な動的挙動を測定する。
本稿では,STTDを暗黙的ニューラル表現としてパラメータ化することで,STTD学習問題に対処する新しいパラダイムを提案する。
実世界のシナリオにおける広範な実験を通じて,その有効性を検証し,廊下からネットワークスケールへの応用を示す。
論文 参考訳(メタデータ) (2024-06-13T02:03:22Z) - Synthetic location trajectory generation using categorical diffusion
models [50.809683239937584]
拡散モデル(DPM)は急速に進化し、合成データのシミュレーションにおける主要な生成モデルの一つとなっている。
本稿では,個人が訪れた物理的位置を表す変数列である合成個別位置軌跡(ILT)の生成にDPMを用いることを提案する。
論文 参考訳(メタデータ) (2024-02-19T15:57:39Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - A Dynamic Temporal Self-attention Graph Convolutional Network for
Traffic Prediction [7.23135508361981]
本稿では,隣接する行列をトレーニング可能なアテンションスコア行列とする時間自己アテンショングラフ畳み込みネットワーク(DT-SGN)モデルを提案する。
実世界の交通データセット上での最先端モデル駆動モデルとデータ駆動モデルよりも,本手法の方が優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2023-02-21T03:51:52Z) - Continuous-Time and Multi-Level Graph Representation Learning for
Origin-Destination Demand Prediction [52.0977259978343]
本稿では,原位置需要予測(CMOD)のための連続時間および多段階動的グラフ表現学習法を提案する。
状態ベクトルは、過去のトランザクション情報を保持し、最近発生したトランザクションに従って継続的に更新される。
北京地下鉄とニューヨークタクシーの2つの実世界のデータセットを用いて実験を行い、そのモデルが最先端のアプローチに対して優れていることを実証した。
論文 参考訳(メタデータ) (2022-06-30T03:37:50Z) - Dynamic Spatiotemporal Graph Convolutional Neural Networks for Traffic
Data Imputation with Complex Missing Patterns [3.9318191265352196]
本稿では,DSTG(Dynamic Spatio Graph Contemporal Networks)と呼ばれる新しいディープラーニングフレームワークを提案する。
本稿では,動的空間依存のリアルタイム交通情報と道路ネットワーク構造をモデル化するためのグラフ構造推定手法を提案する。
提案手法は,既存の深層学習モデルより様々なシナリオにおいて優れており,グラフ構造推定手法はモデルの性能に寄与する。
論文 参考訳(メタデータ) (2021-09-17T05:47:17Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z) - SST-GNN: Simplified Spatio-temporal Traffic forecasting model using
Graph Neural Network [2.524966118517392]
我々は,SST-GNN(SST-GNN)を簡易に設計し,異なる地区を個別に集約することで依存性を効果的に符号化した。
我々は,本モデルが3つの実環境トラフィックデータセットの最先端モデルよりも大幅に優れていることを示した。
論文 参考訳(メタデータ) (2021-03-31T18:28:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。