論文の概要: Revisiting CNNs for Trajectory Similarity Learning
- arxiv url: http://arxiv.org/abs/2405.19761v1
- Date: Thu, 30 May 2024 07:16:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 15:38:52.451150
- Title: Revisiting CNNs for Trajectory Similarity Learning
- Title(参考訳): 軌道類似性学習のためのCNNの再検討
- Authors: Zhihao Chang, Linzhu Yu, Huan Li, Sai Wu, Gang Chen, Dongxiang Zhang,
- Abstract要約: ConvTrajを導入し、1Dと2Dの畳み込みを併用して、トラジェクトリの逐次的および地理的分布の特徴を捉える。
軌道類似度探索において,ConvTrajが最先端の精度を実現することを示す。
- 参考スコア(独自算出の注目度): 20.311950784166388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Similarity search is a fundamental but expensive operator in querying trajectory data, due to its quadratic complexity of distance computation. To mitigate the computational burden for long trajectories, neural networks have been widely employed for similarity learning and each trajectory is encoded as a high-dimensional vector for similarity search with linear complexity. Given the sequential nature of trajectory data, previous efforts have been primarily devoted to the utilization of RNNs or Transformers. In this paper, we argue that the common practice of treating trajectory as sequential data results in excessive attention to capturing long-term global dependency between two sequences. Instead, our investigation reveals the pivotal role of local similarity, prompting a revisit of simple CNNs for trajectory similarity learning. We introduce ConvTraj, incorporating both 1D and 2D convolutions to capture sequential and geo-distribution features of trajectories, respectively. In addition, we conduct a series of theoretical analyses to justify the effectiveness of ConvTraj. Experimental results on three real-world large-scale datasets demonstrate that ConvTraj achieves state-of-the-art accuracy in trajectory similarity search. Owing to the simple network structure of ConvTraj, the training and inference speed on the Porto dataset with 1.6 million trajectories are increased by at least $240$x and $2.16$x, respectively. The source code and dataset can be found at \textit{\url{https://github.com/Proudc/ConvTraj}}.
- Abstract(参考訳): 類似性探索は、距離計算の2次複雑さのため、軌跡データを問合せする基本的だが高価な演算子である。
長い軌道の計算負担を軽減するため、ニューラルネットワークは類似性学習に広く使われ、各軌道は線形複雑性を伴う類似性探索のための高次元ベクトルとして符号化されている。
トラジェクトリデータのシーケンシャルな性質を考えると、これまでの取り組みは主にRNNやトランスフォーマーの利用に費やされてきた。
本稿では,トラジェクトリを逐次データとして扱うという一般的な実践が,2つのシーケンス間の長期的グローバルな依存関係の把握に過度な注意を払っていることを論じる。
その代わり,本研究では,局所的類似性の重要な役割を明らかにし,軌跡類似性学習のための単純なCNNを再考する。
我々はConvTrajを導入し、1Dと2Dの畳み込みをそれぞれ組み込んで、トラジェクトリの逐次的および地理的分布の特徴を捉える。
さらに、ConvTrajの有効性を正当化する一連の理論的分析を行う。
実世界の3つの大規模データセットによる実験結果から,ConvTrajは軌道類似性探索における最先端の精度を実現することが示された。
ConvTrajの単純なネットワーク構造により、1.6万軌跡を持つPortoデータセットのトレーニング速度と推論速度は、それぞれ少なくとも240$xと2.16$xに向上する。
ソースコードとデータセットは \textit{\url{https://github.com/Proudc/ConvTraj}} にある。
関連論文リスト
- VeTraSS: Vehicle Trajectory Similarity Search Through Graph Modeling and Representation Learning [9.325787573209201]
軌道類似性探索は自律運転において重要な役割を果たす。
車両軌道類似度探索のためのエンドツーエンドパイプラインであるVeTraSSを提案する。
論文 参考訳(メタデータ) (2024-04-11T06:19:55Z) - Self-supervised Trajectory Representation Learning with Temporal
Regularities and Travel Semantics [30.9735101687326]
Trajectory Representation Learning (TRL) は空間時間データ分析と管理のための強力なツールである。
既存のTRLの作業は通常、トラジェクトリを通常のシーケンスデータとして扱うが、時間的規則性や旅行意味論といった重要な時空間特性は、完全には利用されない。
本稿では,TemporAl規則と旅行意味論,すなわちSTARTを用いた自己教師付き軌道表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-17T13:14:47Z) - Contrastive Trajectory Similarity Learning with Dual-Feature Attention [24.445998309807965]
トレイ類似度尺度は、トラジェクトリデータベースにおけるクエリ述語として機能する。
そこで本研究では,TrajCLという学習に基づくトラジェクトリモデリング手法を提案する。
TrajCLは、最先端の軌跡類似度測定よりも一貫して、はるかに正確で高速である。
論文 参考訳(メタデータ) (2022-10-11T05:25:14Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - PreTraM: Self-Supervised Pre-training via Connecting Trajectory and Map [58.53373202647576]
軌道予測のための自己教師付き事前学習方式であるPreTraMを提案する。
1) トラジェクティブ・マップ・コントラクティブ・ラーニング(トラジェクティブ・コントラクティブ・ラーニング)、(2) トラジェクティブ・ラーニング(トラジェクティブ・コントラクティブ・ラーニング)、(2) トラジェクティブ・ラーニング(トラジェクティブ・ラーニング)、(2) トラジェクティブ・コントラクティブ・ラーニング(トラジェクティブ・ラーニング)、(2) トラジェクティブ・コントラクティブ・ラーニング(トラジェクティブ・ラーニング)の2つのパートから構成される。
AgentFormerやTrajectron++といった一般的なベースラインに加えて、PreTraMは、挑戦的なnuScenesデータセット上で、FDE-10でパフォーマンスを5.5%と6.9%向上させる。
論文 参考訳(メタデータ) (2022-04-21T23:01:21Z) - Towards Similarity-Aware Time-Series Classification [51.2400839966489]
時系列データマイニングの基本課題である時系列分類(TSC)について検討する。
グラフニューラルネットワーク(GNN)を用いて類似情報をモデル化するフレームワークであるSimTSCを提案する。
論文 参考訳(メタデータ) (2022-01-05T02:14:57Z) - Transformer Tracking [76.96796612225295]
相関は追跡分野において、特に人気のあるシャム系トラッカーにおいて重要な役割を果たす。
本研究は,注意のみを用いてテンプレートと検索領域を効果的に結合した,新しい注意型特徴融合ネットワークを提案する。
実験により、TransTは6つの挑戦的なデータセットで非常に有望な結果が得られます。
論文 参考訳(メタデータ) (2021-03-29T09:06:55Z) - An Unsupervised Learning Method with Convolutional Auto-Encoder for
Vessel Trajectory Similarity Computation [13.003061329076775]
畳み込みオートエンコーダ(CAE)を用いて低次元特徴を自動的に抽出する教師なし学習手法を提案する。
収集された大量の血管軌跡に基づいて、CAEは教師なしの方法で情報的軌跡画像の低次元表現を学習することができる。
提案手法は従来の軌道類似性手法を効率と有効性で大きく上回っている。
論文 参考訳(メタデータ) (2021-01-10T04:42:11Z) - Comprehensive Graph-conditional Similarity Preserving Network for
Unsupervised Cross-modal Hashing [97.44152794234405]
教師なしクロスモーダルハッシュ(UCMH)は近年ホットトピックとなっている。
本稿では,dgcpn(deep graph-neighbor coherence preservation network)を考案する。
DGCPNは3種類のデータ類似性を利用して、損失を保存する包括的な類似性を管理する。
論文 参考訳(メタデータ) (2020-12-25T07:40:59Z) - Convolutional Embedding for Edit Distance [24.65097766064397]
CNN-EDは、編集距離をユークリッド距離に埋め込み、高速な近似類似性探索を行う。
CNN-EDは、正確性と効率の両面で、データ非依存のCGK埋め込みとRNNベースのGRU埋め込みを上回っている。
論文 参考訳(メタデータ) (2020-01-31T07:53:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。