論文の概要: Contrastive Pre-training of Spatial-Temporal Trajectory Embeddings
- arxiv url: http://arxiv.org/abs/2207.14539v1
- Date: Fri, 29 Jul 2022 08:16:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 12:25:20.133717
- Title: Contrastive Pre-training of Spatial-Temporal Trajectory Embeddings
- Title(参考訳): 空間-時間軌道埋め込みのコントラスト事前学習
- Authors: Yan Lin, Huaiyu Wan, Shengnan Guo, Youfang Lin
- Abstract要約: 本稿では,包括的軌道埋め込み学習のためのコントラスト空間-時間軌道埋め込み(CSTTE)モデルを提案する。
トラジェクトリのための特別に設計されたデータ拡張手法は、高レベルの旅行セマンティクスを保存するために、対照的な前提課題と結合する。
また,トラジェクトリにおける時間空間相関を効率的に,かつ包括的にモデル化する効率的な時空間トラジェクトリエンコーダを構築した。
- 参考スコア(独自算出の注目度): 26.27775043048166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-training trajectory embeddings is a fundamental and critical procedure in
spatial-temporal trajectory mining, and is beneficial for a wide range of
downstream tasks. The key for generating effective trajectory embeddings is to
extract high-level travel semantics from trajectories, including movement
patterns and travel purposes, with consideration of the trajectories' long-term
spatial-temporal correlations. Despite the existing efforts, there are still
major challenges in pre-training trajectory embeddings. First, commonly used
generative pretext tasks are not suitable for extracting high-level semantics
from trajectories. Second, existing data augmentation methods fit badly on
trajectory datasets. Third, current encoder designs fail to fully incorporate
long-term spatial-temporal correlations hidden in trajectories. To tackle these
challenges, we propose a novel Contrastive Spatial-Temporal Trajectory
Embedding (CSTTE) model for learning comprehensive trajectory embeddings. CSTTE
adopts the contrastive learning framework so that its pretext task is robust to
noise. A specially designed data augmentation method for trajectories is
coupled with the contrastive pretext task to preserve the high-level travel
semantics. We also build an efficient spatial-temporal trajectory encoder to
efficiently and comprehensively model the long-term spatial-temporal
correlations in trajectories. Extensive experiments on two downstream tasks and
three real-world datasets prove the superiority of our model compared with the
existing trajectory embedding methods.
- Abstract(参考訳): プレトレーニング軌道埋め込みは時空間軌道採掘における基本的かつ重要な手順であり、幅広い下流作業に有用である。
効果的な軌道埋め込みを生成する鍵は、軌道の長期的空間-時間的相関を考慮して、移動パターンや旅行目的を含む軌道から高レベルな移動意味論を抽出することである。
既存の努力にもかかわらず、軌道埋め込みの事前訓練には依然として大きな課題がある。
まず、一般的に使われている生成前文タスクは、軌跡から高レベルな意味を抽出するのに適さない。
第二に、既存のデータ拡張手法は軌道データセットによく適合する。
第3に、現在のエンコーダの設計は、軌道に隠された長期的な空間-時間相関を完全に取り入れることができない。
これらの課題に対処するために,包括的軌道埋め込み学習のためのコントラスト空間-時間軌道埋め込み(CSTTE)モデルを提案する。
CSTTEは、そのプレテキストタスクがノイズに対して堅牢になるように、対照的な学習フレームワークを採用する。
トラジェクトリのための特別に設計されたデータ拡張手法は、高レベルの旅行セマンティクスを保存するために、対照的な前提課題と結合する。
また,トラジェクタにおける長期空間-時間相関を効率的かつ包括的にモデル化する効率的な空間-時間軌道エンコーダを構築した。
2つの下流タスクと3つの実世界のデータセットに対する大規模な実験は、既存の軌道埋め込み法と比較して、我々のモデルの優位性を証明している。
関連論文リスト
- PTR: A Pre-trained Language Model for Trajectory Recovery [31.08861372332931]
そこで我々は, PTR と呼ばれるフレームワークを提案し, 限られた高密度軌跡データの問題を緩和する。
PTRは明示的な軌道プロンプトを組み込み、複数のサンプリング間隔を持つデータセットでトレーニングされる。
また、軌道点を符号化し、観測点と欠点の両方の埋め込みをPLMに理解可能な形式に変換する軌道埋め込み器を提案する。
論文 参考訳(メタデータ) (2024-10-18T08:38:12Z) - Towards Stable and Storage-efficient Dataset Distillation: Matching Convexified Trajectory [53.37473225728298]
ディープラーニングと大規模言語モデルの急速な進化により、トレーニングデータの需要が指数関数的に増加した。
MTT(Matching Training Trajectories)は、専門家ネットワークのトレーニングトラジェクトリを、合成データセットで実データ上に複製する、顕著なアプローチである。
そこで本研究では,学生の軌道に対するより良いガイダンスを提供することを目的として,MCT (Matching Convexified Trajectory) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-28T11:06:46Z) - Deep Learning for Trajectory Data Management and Mining: A Survey and Beyond [58.63558696061679]
軌道計算は、位置サービス、都市交通、公共安全など、様々な実用用途において重要である。
トラジェクトリ・コンピューティングのためのディープラーニング(DL4Traj)の開発と最近の進歩について概観する。
特に、軌道計算を増強する可能性を持つ大規模言語モデル(LLM)の最近の進歩をカプセル化する。
論文 参考訳(メタデータ) (2024-03-21T05:57:27Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Generalizable Task Representation Learning for Offline
Meta-Reinforcement Learning with Data Limitations [22.23114883485924]
本稿では,データ制限に直面した一般化可能なタスク表現を学習するための新しいアルゴリズムGENTLEを提案する。
GENTLEは、タスクの特徴を抽出するために、エンコーダ・デコーダアーキテクチャであるTask Auto-Encoder(TAE)を使用している。
限られた行動多様性の影響を軽減するため,TAEのトレーニングに使用されるデータ分布とテスト中に発生するデータ分布とを整合させる擬似遷移を構築した。
論文 参考訳(メタデータ) (2023-12-26T07:02:12Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - Generalization with Lossy Affordances: Leveraging Broad Offline Data for
Learning Visuomotor Tasks [65.23947618404046]
本研究では,広範囲なデータを用いたオフライン強化学習を通じて,時間的拡張タスクの目標条件付きポリシを取得するフレームワークを提案する。
新たなタスク目標に直面した場合、フレームワークは余裕モデルを使用して、元のタスクをより簡単な問題に分解するサブゴールとして、損失のある表現のシーケンスを計画する。
我々は,従来の作業からロボット体験の大規模データセットを事前学習し,手動の報酬工学を使わずに視覚入力から,新しいタスクを効率的に微調整できることを実証した。
論文 参考訳(メタデータ) (2022-10-12T21:46:38Z) - Hierarchical Few-Shot Imitation with Skill Transition Models [66.81252581083199]
FIST(Few-shot Imitation with Skill Transition Models)は、オフラインデータからスキルを抽出し、それらを利用して見えないタスクに一般化するアルゴリズムである。
本稿では,FISTが新たなタスクに一般化し,ナビゲーション実験において従来のベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-07-19T15:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。