論文の概要: Contrastive Pre-training of Spatial-Temporal Trajectory Embeddings
- arxiv url: http://arxiv.org/abs/2207.14539v1
- Date: Fri, 29 Jul 2022 08:16:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 12:25:20.133717
- Title: Contrastive Pre-training of Spatial-Temporal Trajectory Embeddings
- Title(参考訳): 空間-時間軌道埋め込みのコントラスト事前学習
- Authors: Yan Lin, Huaiyu Wan, Shengnan Guo, Youfang Lin
- Abstract要約: 本稿では,包括的軌道埋め込み学習のためのコントラスト空間-時間軌道埋め込み(CSTTE)モデルを提案する。
トラジェクトリのための特別に設計されたデータ拡張手法は、高レベルの旅行セマンティクスを保存するために、対照的な前提課題と結合する。
また,トラジェクトリにおける時間空間相関を効率的に,かつ包括的にモデル化する効率的な時空間トラジェクトリエンコーダを構築した。
- 参考スコア(独自算出の注目度): 26.27775043048166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-training trajectory embeddings is a fundamental and critical procedure in
spatial-temporal trajectory mining, and is beneficial for a wide range of
downstream tasks. The key for generating effective trajectory embeddings is to
extract high-level travel semantics from trajectories, including movement
patterns and travel purposes, with consideration of the trajectories' long-term
spatial-temporal correlations. Despite the existing efforts, there are still
major challenges in pre-training trajectory embeddings. First, commonly used
generative pretext tasks are not suitable for extracting high-level semantics
from trajectories. Second, existing data augmentation methods fit badly on
trajectory datasets. Third, current encoder designs fail to fully incorporate
long-term spatial-temporal correlations hidden in trajectories. To tackle these
challenges, we propose a novel Contrastive Spatial-Temporal Trajectory
Embedding (CSTTE) model for learning comprehensive trajectory embeddings. CSTTE
adopts the contrastive learning framework so that its pretext task is robust to
noise. A specially designed data augmentation method for trajectories is
coupled with the contrastive pretext task to preserve the high-level travel
semantics. We also build an efficient spatial-temporal trajectory encoder to
efficiently and comprehensively model the long-term spatial-temporal
correlations in trajectories. Extensive experiments on two downstream tasks and
three real-world datasets prove the superiority of our model compared with the
existing trajectory embedding methods.
- Abstract(参考訳): プレトレーニング軌道埋め込みは時空間軌道採掘における基本的かつ重要な手順であり、幅広い下流作業に有用である。
効果的な軌道埋め込みを生成する鍵は、軌道の長期的空間-時間的相関を考慮して、移動パターンや旅行目的を含む軌道から高レベルな移動意味論を抽出することである。
既存の努力にもかかわらず、軌道埋め込みの事前訓練には依然として大きな課題がある。
まず、一般的に使われている生成前文タスクは、軌跡から高レベルな意味を抽出するのに適さない。
第二に、既存のデータ拡張手法は軌道データセットによく適合する。
第3に、現在のエンコーダの設計は、軌道に隠された長期的な空間-時間相関を完全に取り入れることができない。
これらの課題に対処するために,包括的軌道埋め込み学習のためのコントラスト空間-時間軌道埋め込み(CSTTE)モデルを提案する。
CSTTEは、そのプレテキストタスクがノイズに対して堅牢になるように、対照的な学習フレームワークを採用する。
トラジェクトリのための特別に設計されたデータ拡張手法は、高レベルの旅行セマンティクスを保存するために、対照的な前提課題と結合する。
また,トラジェクタにおける長期空間-時間相関を効率的かつ包括的にモデル化する効率的な空間-時間軌道エンコーダを構築した。
2つの下流タスクと3つの実世界のデータセットに対する大規模な実験は、既存の軌道埋め込み法と比較して、我々のモデルの優位性を証明している。
関連論文リスト
- Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Generalizable Task Representation Learning for Offline
Meta-Reinforcement Learning with Data Limitations [22.23114883485924]
本稿では,データ制限に直面した一般化可能なタスク表現を学習するための新しいアルゴリズムGENTLEを提案する。
GENTLEは、タスクの特徴を抽出するために、エンコーダ・デコーダアーキテクチャであるTask Auto-Encoder(TAE)を使用している。
限られた行動多様性の影響を軽減するため,TAEのトレーニングに使用されるデータ分布とテスト中に発生するデータ分布とを整合させる擬似遷移を構築した。
論文 参考訳(メタデータ) (2023-12-26T07:02:12Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Autonomous
Driving [84.22159537581742]
職業予測は一般表現の学習に有望であることが示されている。
SPOTは、ポイントクラウド拡張にビーム再サンプリング技術を使用し、クラスバランス戦略を適用している。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - Spatio-Temporal Contrastive Self-Supervised Learning for POI-level Crowd
Flow Inference [23.8192952068949]
S-temporal data(CSST)のための新しいコントラスト型自己学習フレームワークを提案する。
提案手法は,POI(Points of Interest)とその距離に基づく空間隣接グラフの構築から始める。
我々は、類似した事例から対象部分グラフの表現を予測するために、スワップした予測手法を採用する。
実世界の2つのデータセットで実施した実験では、広範囲のノイズデータに基づいて事前トレーニングされたCSSTが、ゼロからトレーニングされたモデルより一貫して優れていることを示した。
論文 参考訳(メタデータ) (2023-09-06T02:51:24Z) - Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z) - Generalization with Lossy Affordances: Leveraging Broad Offline Data for
Learning Visuomotor Tasks [65.23947618404046]
本研究では,広範囲なデータを用いたオフライン強化学習を通じて,時間的拡張タスクの目標条件付きポリシを取得するフレームワークを提案する。
新たなタスク目標に直面した場合、フレームワークは余裕モデルを使用して、元のタスクをより簡単な問題に分解するサブゴールとして、損失のある表現のシーケンスを計画する。
我々は,従来の作業からロボット体験の大規模データセットを事前学習し,手動の報酬工学を使わずに視覚入力から,新しいタスクを効率的に微調整できることを実証した。
論文 参考訳(メタデータ) (2022-10-12T21:46:38Z) - TempoRL: Temporal Priors for Exploration in Off-Policy Reinforcement
Learning [33.512849582347734]
より多様なタスクで共有されるオフラインデータから機能を学ぶことを提案する。
実演軌跡における時間的一貫性を直接モデル化する状態非依存の時間的先行性を導入する。
また、非政治強化学習における行動優先の新たな統合手法についても紹介する。
論文 参考訳(メタデータ) (2022-05-26T17:49:12Z) - Hierarchical Few-Shot Imitation with Skill Transition Models [66.81252581083199]
FIST(Few-shot Imitation with Skill Transition Models)は、オフラインデータからスキルを抽出し、それらを利用して見えないタスクに一般化するアルゴリズムである。
本稿では,FISTが新たなタスクに一般化し,ナビゲーション実験において従来のベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-07-19T15:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。