論文の概要: More Than Routing: Joint GPS and Route Modeling for Refine Trajectory
Representation Learning
- arxiv url: http://arxiv.org/abs/2402.16915v1
- Date: Sun, 25 Feb 2024 18:27:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 19:00:25.240188
- Title: More Than Routing: Joint GPS and Route Modeling for Refine Trajectory
Representation Learning
- Title(参考訳): ルーティング以上のもの:gpsと経路モデリングによる軌道表現学習の洗練
- Authors: Zhipeng Ma, Zheyan Tu, Xinhai Chen, Yan Zhang, Deguo Xia, Guyue Zhou,
Yilun Chen, Yu Zheng, Jiangtao Gong
- Abstract要約: 本稿では,JGRMという自己監督技術に基づく共同GPSとルートモデリングを提案する。
我々は2つのエンコーダを開発し、それぞれルートとGPSの軌跡を表現できるように調整した。
2つのモードからの表現は、モーダル間情報相互作用のための共有変換器に入力される。
- 参考スコア(独自算出の注目度): 26.630640299709114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trajectory representation learning plays a pivotal role in supporting various
downstream tasks. Traditional methods in order to filter the noise in GPS
trajectories tend to focus on routing-based methods used to simplify the
trajectories. However, this approach ignores the motion details contained in
the GPS data, limiting the representation capability of trajectory
representation learning. To fill this gap, we propose a novel representation
learning framework that Joint GPS and Route Modelling based on self-supervised
technology, namely JGRM. We consider GPS trajectory and route as the two modes
of a single movement observation and fuse information through inter-modal
information interaction. Specifically, we develop two encoders, each tailored
to capture representations of route and GPS trajectories respectively. The
representations from the two modalities are fed into a shared transformer for
inter-modal information interaction. Eventually, we design three
self-supervised tasks to train the model. We validate the effectiveness of the
proposed method on two real datasets based on extensive experiments. The
experimental results demonstrate that JGRM outperforms existing methods in both
road segment representation and trajectory representation tasks. Our source
code is available at Anonymous Github.
- Abstract(参考訳): 軌道表現学習は様々な下流タスクを支援する上で重要な役割を果たしている。
GPSトラジェクトリのノイズをフィルタリングする従来の手法は、トラジェクトリを単純化するために使われるルーティングベースの手法に焦点を当てる傾向にある。
しかし、このアプローチはgpsデータに含まれる動きの詳細を無視し、軌道表現学習の表現能力を制限する。
このギャップを埋めるために,JGRMという自己教師型技術に基づく共同GPSとルートモデリングを用いた表現学習フレームワークを提案する。
我々は,GPSの軌跡と経路を単一運動観測の2つのモードとみなし,モーダル間情報通信を通じて情報を融合する。
具体的には、2つのエンコーダを開発し、それぞれルートとGPSの軌跡を表現できるように調整する。
2つのモードからの表現は、モーダル間情報相互作用のための共有変換器に入力される。
最終的に、モデルをトレーニングするための3つの自己教師型タスクを設計する。
本研究では,提案手法の有効性を2つの実データで検証する。
実験の結果,JGRMは道路セグメント表現と軌道表現の両方において既存手法よりも優れていた。
ソースコードはAnonymous Githubで入手可能です。
関連論文リスト
- Grid and Road Expressions Are Complementary for Trajectory Representation Learning [40.94269411061165]
トラジェクトリ表現学習(TRL)は、多くの下流タスクに使用できるベクトルにトラジェクトリをマッピングする。
既存のTRL法では、グリッドトラジェクトリ、自由空間における移動のキャプチャー、道路トラジェクトリ、道路ネットワークにおける移動のキャプチャーのいずれかを入力として使用する。
GREENと呼ばれる新しいマルチモーダルTRL手法を提案する。
論文 参考訳(メタデータ) (2024-11-22T07:15:46Z) - Context-Enhanced Multi-View Trajectory Representation Learning: Bridging the Gap through Self-Supervised Models [27.316692263196277]
MVTrajは、軌道表現学習のための新しい多視点モデリング手法である。
GPSから道路網、関心点まで多様な文脈知識を統合し、軌跡データのより包括的な理解を提供する。
実世界のデータセットに対する大規模な実験により、MVTrajは様々な空間ビューに関連するタスクにおいて、既存のベースラインを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-10-17T03:56:12Z) - Micro-Macro Spatial-Temporal Graph-based Encoder-Decoder for Map-Constrained Trajectory Recovery [21.911875343270683]
スパース軌道におけるGPSの欠落は、インテリジェント交通システムにおけるユーザの移動行動に深い洞察を与える可能性がある。
個々の軌道のマイクロセマンティックを包括的に捉えることは極めて困難である。
本研究では,マイクロマクロ空間グラフデコーダ(MM-STGED)を提案する。
論文 参考訳(メタデータ) (2024-04-29T22:54:35Z) - G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - DouFu: A Double Fusion Joint Learning Method For Driving Trajectory
Representation [13.321587117066166]
軌道表現型共同学習のための新しい多モード融合モデルDouFuを提案する。
まず、軌道データと都市機能ゾーンから生成された動き、経路、グローバルな特徴を設計する。
グローバルなセマンティック機能により、DouFuは各行に対して包括的な埋め込みを生成する。
論文 参考訳(メタデータ) (2022-05-05T07:43:35Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - Divide-and-Conquer for Lane-Aware Diverse Trajectory Prediction [71.97877759413272]
軌道予測は、自動運転車が行動を計画し実行するための安全クリティカルなツールです。
近年の手法は,WTAやベスト・オブ・マニーといったマルチコース学習の目標を用いて,強力なパフォーマンスを実現している。
我々の研究は、軌道予測、学習出力、そして運転知識を使って制約を課すことによるより良い予測における2つの重要な課題に対処する。
論文 参考訳(メタデータ) (2021-04-16T17:58:56Z) - A Driving Behavior Recognition Model with Bi-LSTM and Multi-Scale CNN [59.57221522897815]
運転行動認識のための軌道情報に基づくニューラルネットワークモデルを提案する。
提案手法を公開BLVDデータセット上で評価し,満足な性能を実現する。
論文 参考訳(メタデータ) (2021-03-01T06:47:29Z) - Jointly Modeling Motion and Appearance Cues for Robust RGB-T Tracking [85.333260415532]
我々はRGBと熱(T)の両モードの融合重量マップを推定する新しい後期融合法を開発した。
外観キューが信頼できない場合には、動作キューを考慮に入れ、トラッカーを堅牢にする。
最近の3つのRGB-T追跡データセットの多くの結果から、提案したトラッカーは他の最先端のアルゴリズムよりも大幅に性能が向上していることが示された。
論文 参考訳(メタデータ) (2020-07-04T08:11:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。