論文の概要: MovSemCL: Movement-Semantics Contrastive Learning for Trajectory Similarity
- arxiv url: http://arxiv.org/abs/2511.12061v1
- Date: Sat, 15 Nov 2025 06:56:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.538018
- Title: MovSemCL: Movement-Semantics Contrastive Learning for Trajectory Similarity
- Title(参考訳): MovSemCL:軌道類似性のための運動意味論的コントラスト学習
- Authors: Zhichen Lai, Hua Lu, Huan Li, Jialiang Li, Christian S. Jensen,
- Abstract要約: 軌道類似性計算のための運動セマンティック・コントラスト学習フレームワークであるMovSemCLを提案する。
MoveSemCLは、生のGPS軌跡を移動セマンティックな特徴に変換し、それらをパッチに分割する。
MoveSemCLは、局所的およびグローバルな軌道パターンを符号化するために、パッチ内およびパッチ間注意を用いており、効率的な階層表現と計算コストの削減を可能にしている。
- 参考スコア(独自算出の注目度): 18.468551998190403
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trajectory similarity computation is fundamental functionality that is used for, e.g., clustering, prediction, and anomaly detection. However, existing learning-based methods exhibit three key limitations: (1) insufficient modeling of trajectory semantics and hierarchy, lacking both movement dynamics extraction and multi-scale structural representation; (2) high computational costs due to point-wise encoding; and (3) use of physically implausible augmentations that distort trajectory semantics. To address these issues, we propose MovSemCL, a movement-semantics contrastive learning framework for trajectory similarity computation. MovSemCL first transforms raw GPS trajectories into movement-semantics features and then segments them into patches. Next, MovSemCL employs intra- and inter-patch attentions to encode local as well as global trajectory patterns, enabling efficient hierarchical representation and reducing computational costs. Moreover, MovSemCL includes a curvature-guided augmentation strategy that preserves informative segments (e.g., turns and intersections) and masks redundant ones, generating physically plausible augmented views. Experiments on real-world datasets show that MovSemCL is capable of outperforming state-of-the-art methods, achieving mean ranks close to the ideal value of 1 at similarity search tasks and improvements by up to 20.3% at heuristic approximation, while reducing inference latency by up to 43.4%.
- Abstract(参考訳): 軌道類似性計算は、例えばクラスタリング、予測、異常検出などに使われる基本的な機能である。
しかし,既存の学習手法では,(1)運動力学の抽出と多スケール構造表現の両面を欠いた,軌道意味論と階層構造のモデリングが不十分なこと,(2)ポイントワイド符号化による計算コストが高いこと,(3)軌道意味論を歪ませる物理的に不可解な拡張の利用,の3つの限界が示されている。
これらの問題に対処するため、軌道類似性計算のための運動セマンティック・コントラスト学習フレームワークであるMovSemCLを提案する。
MovSemCLはまず、生のGPS軌跡を移動セマンティックな特徴に変換し、それらをパッチに分割する。
次に、MovSemCLは、局所的およびグローバルな軌道パターンを符号化するために、パッチ内およびパッチ間注目を用いて、効率的な階層表現と計算コストの削減を可能にする。
さらに、MovSemCLには、情報セグメント(例えば、ターンと交差点)を保存し、冗長なセグメントをマスクする曲率誘導拡張戦略が含まれており、物理的に妥当な拡張ビューを生成する。
実世界のデータセットでの実験では、MovSemCLは最先端の手法よりも優れており、類似検索タスクで1の理想的な値に近く、ヒューリスティック近似で最大20.3%向上し、推論遅延を最大43.4%削減している。
関連論文リスト
- TrajDiff: Diffusion Bridge Network with Semantic Alignment for Trajectory Similarity Computation [39.42796455901991]
そこで我々はTrajDiffという新しい軌道類似性計算フレームワークを提案する。
具体的には、TrajDiffは、アダプティブフュージョンを備えたクロスアテンションとアテンションスコアマスク機構に依存している。
3つの公開データセットに対する大規模な実験は、TrajDiffが一貫して最先端のベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2025-06-18T21:52:07Z) - Contrast & Compress: Learning Lightweight Embeddings for Short Trajectories [11.6132604160666]
トランスフォーマーエンコーダを応用して, 短い軌道の固定次元埋め込みを学習するための新しいフレームワークを提案する。
コントラスト学習パラダイムにおけるコサインとFFTに基づく類似度指標の影響を分析した。
Argoverse 2データセットに対する実験的な評価は、Cosine類似性目的によって形成された埋め込みが軌道のより優れたクラスタリングをもたらすことを示す。
論文 参考訳(メタデータ) (2025-06-03T07:53:04Z) - Unleashing Network Potentials for Semantic Scene Completion [50.95486458217653]
本稿では,新しいSSCフレームワーク - Adrial Modality Modulation Network (AMMNet)を提案する。
AMMNetは、モダリティ間の勾配流の相互依存性を可能にするクロスモーダル変調と、動的勾配競争を利用するカスタマイズされた逆トレーニングスキームの2つのコアモジュールを導入している。
AMMNetは最先端のSSC法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2024-03-12T11:48:49Z) - Multi-body SE(3) Equivariance for Unsupervised Rigid Segmentation and
Motion Estimation [49.56131393810713]
本稿では、SE(3)同変アーキテクチャと、この課題に教師なしで取り組むためのトレーニング戦略を提案する。
本手法は,0.25Mパラメータと0.92G FLOPを用いて,モデル性能と計算効率を両立させる。
論文 参考訳(メタデータ) (2023-06-08T22:55:32Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Unsupervised Motion Representation Learning with Capsule Autoencoders [54.81628825371412]
Motion Capsule Autoencoder (MCAE) は、2レベル階層のモーションをモデル化する。
MCAEは、新しいTrajectory20モーションデータセットと、様々な現実世界の骨格に基づく人間のアクションデータセットで評価されている。
論文 参考訳(メタデータ) (2021-10-01T16:52:03Z) - DETECT: Deep Trajectory Clustering for Mobility-Behavior Analysis [10.335486459171992]
我々は,Deep Embedded TrajEctor ClusTering Network (DETECT)と呼ばれる,移動行動クラスタリングのための教師なしニューラルネットワークを提案する。
DETECTは3つの部分で機能する: まず、重要な部分を要約し、地理的局所性から派生した文脈で拡張することで軌道を変換する。
第2部では、潜在行動空間におけるトラジェクトリの強力な表現を学び、これによりクラスタリング関数(例えば$k$means)を適用できる。
論文 参考訳(メタデータ) (2020-03-03T06:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。