論文の概要: RED: Effective Trajectory Representation Learning with Comprehensive Information
- arxiv url: http://arxiv.org/abs/2411.15096v1
- Date: Fri, 22 Nov 2024 17:51:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-25 15:03:55.036899
- Title: RED: Effective Trajectory Representation Learning with Comprehensive Information
- Title(参考訳): RED:包括的情報を用いた効果的な軌道表現学習
- Authors: Silin Zhou, Shuo Shang, Lisi Chen, Christian S. Jensen, Panos Kalnis,
- Abstract要約: トラジェクティブ表現学習(TRL)は、様々な下流タスクに使用できるベクトルにトラジェクトリをマッピングする。
本稿では,複数のトラジェクトリ情報を効果的に活用する自己教師型TRLフレームワークREDを提案する。
- 参考スコア(独自算出の注目度): 41.58502888707689
- License:
- Abstract: Trajectory representation learning (TRL) maps trajectories to vectors that can then be used for various downstream tasks, including trajectory similarity computation, trajectory classification, and travel-time estimation. However, existing TRL methods often produce vectors that, when used in downstream tasks, yield insufficiently accurate results. A key reason is that they fail to utilize the comprehensive information encompassed by trajectories. We propose a self-supervised TRL framework, called RED, which effectively exploits multiple types of trajectory information. Overall, RED adopts the Transformer as the backbone model and masks the constituting paths in trajectories to train a masked autoencoder (MAE). In particular, RED considers the moving patterns of trajectories by employing a Road-aware masking strategy} that retains key paths of trajectories during masking, thereby preserving crucial information of the trajectories. RED also adopts a spatial-temporal-user joint Embedding scheme to encode comprehensive information when preparing the trajectories as model inputs. To conduct training, RED adopts Dual-objective task learning}: the Transformer encoder predicts the next segment in a trajectory, and the Transformer decoder reconstructs the entire trajectory. RED also considers the spatial-temporal correlations of trajectories by modifying the attention mechanism of the Transformer. We compare RED with 9 state-of-the-art TRL methods for 4 downstream tasks on 3 real-world datasets, finding that RED can usually improve the accuracy of the best-performing baseline by over 5%.
- Abstract(参考訳): トラジェクトリ表現学習(TRL)は、トラジェクトリをベクトルにマッピングし、トラジェクトリ類似性計算、トラジェクトリ分類、走行時間推定など、様々な下流タスクに使用できる。
しかし、既存のTRL法では、下流のタスクで使われるベクトルは不十分な精度で得られる。
主な理由は、トラジェクトリが包含する包括的情報を利用できないためである。
本稿では,複数のトラジェクトリ情報を効果的に活用する自己教師型TRLフレームワークREDを提案する。
全体として、REDはトランスフォーマーをバックボーンモデルとして採用し、マスク付きオートエンコーダ(MAE)をトレーニングするための軌道を構成する経路をマスクする。
特に, REDでは, トラジェクトリの移動パターンを, マスキング中にトラジェクトリの重要な経路を保持するロードアウェアマスキング戦略を用いて検討し, トラジェクトリの重要な情報を保存する。
REDはまた、軌道をモデル入力として準備する際の包括的情報をエンコードする時空間ユーザ共同埋め込み方式も採用している。
Transformer encoderは軌道内の次のセグメントを予測し、Transformer decoderは軌道全体を再構築する。
REDはまた、トランスフォーマーの注意機構を変更することにより、軌道の時空間的相関も検討している。
REDと3つの実世界のデータセット上の4つの下流タスクのための9つの最先端TRLメソッドを比較し、REDが通常、最高のパフォーマンスのベースラインの精度を5%以上改善できることを発見した。
関連論文リスト
- Grid and Road Expressions Are Complementary for Trajectory Representation Learning [40.94269411061165]
トラジェクトリ表現学習(TRL)は、多くの下流タスクに使用できるベクトルにトラジェクトリをマッピングする。
既存のTRL法では、グリッドトラジェクトリ、自由空間における移動のキャプチャー、道路トラジェクトリ、道路ネットワークにおける移動のキャプチャーのいずれかを入力として使用する。
GREENと呼ばれる新しいマルチモーダルTRL手法を提案する。
論文 参考訳(メタデータ) (2024-11-22T07:15:46Z) - Cross-Cluster Shifting for Efficient and Effective 3D Object Detection
in Autonomous Driving [69.20604395205248]
本稿では,自律運転における3次元物体検出のための3次元点検出モデルであるShift-SSDを提案する。
我々は、ポイントベース検出器の表現能力を解き放つために、興味深いクロスクラスタシフト操作を導入する。
我々は、KITTI、ランタイム、nuScenesデータセットに関する広範な実験を行い、Shift-SSDの最先端性能を実証した。
論文 参考訳(メタデータ) (2024-03-10T10:36:32Z) - Wavelet-Inspired Multiscale Graph Convolutional Recurrent Network for
Traffic Forecasting [0.0]
本稿では,マルチスケール解析(MSA)法とディープラーニング(DL)法を組み合わせたグラフ・コンパス・リカレント・ネットワーク(WavGCRN)を提案する。
提案手法は,現実のトラフィックデータセット上での解釈可能性,強力な学習能力,および競合予測性能を提供する。
論文 参考訳(メタデータ) (2024-01-11T16:55:48Z) - A Critical Perceptual Pre-trained Model for Complex Trajectory Recovery [27.347708962204713]
この研究は、複雑な軌道に対するより堅牢な軌道回復を提供することを目的としている。
本稿では,多視点グラフと複雑度認識変換器(MGCAT)モデルを提案する。
その結果,F1スコアが5.22%,F1スコアが8.16%,複雑なトラジェクトリが8.16%向上した。
論文 参考訳(メタデータ) (2023-11-05T12:20:39Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Self-supervised Trajectory Representation Learning with Temporal
Regularities and Travel Semantics [30.9735101687326]
Trajectory Representation Learning (TRL) は空間時間データ分析と管理のための強力なツールである。
既存のTRLの作業は通常、トラジェクトリを通常のシーケンスデータとして扱うが、時間的規則性や旅行意味論といった重要な時空間特性は、完全には利用されない。
本稿では,TemporAl規則と旅行意味論,すなわちSTARTを用いた自己教師付き軌道表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-17T13:14:47Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - TrTr: Visual Tracking with Transformer [29.415900191169587]
トランスフォーマーエンコーダデコーダアーキテクチャと呼ばれる強力な注意メカニズムに基づく新しいトラッカーネットワークを提案する。
形状非依存アンカーに基づくターゲットのローカライズを行うトランスの出力を用いて,分類と回帰ヘッドを設計する。
本手法は最先端のアルゴリズムに好適に作用する。
論文 参考訳(メタデータ) (2021-05-09T02:32:28Z) - TransMOT: Spatial-Temporal Graph Transformer for Multiple Object
Tracking [74.82415271960315]
映像内の物体間の空間的・時間的相互作用を効率的にモデル化するソリューションであるTransMOTを提案する。
TransMOTは従来のTransformerよりも計算効率が高いだけでなく、トラッキング精度も向上している。
提案手法は、MOT15、MOT16、MOT17、MOT20を含む複数のベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-04-01T01:49:05Z) - A Driving Behavior Recognition Model with Bi-LSTM and Multi-Scale CNN [59.57221522897815]
運転行動認識のための軌道情報に基づくニューラルネットワークモデルを提案する。
提案手法を公開BLVDデータセット上で評価し,満足な性能を実現する。
論文 参考訳(メタデータ) (2021-03-01T06:47:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。