論文の概要: Micro-Macro Spatial-Temporal Graph-based Encoder-Decoder for Map-Constrained Trajectory Recovery
- arxiv url: http://arxiv.org/abs/2404.19141v1
- Date: Mon, 29 Apr 2024 22:54:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 15:53:21.740826
- Title: Micro-Macro Spatial-Temporal Graph-based Encoder-Decoder for Map-Constrained Trajectory Recovery
- Title(参考訳): 地図制約軌道復元のためのマイクロマクロ空間時間グラフベースエンコーダデコーダ
- Authors: Tonglong Wei, Youfang Lin, Yan Lin, Shengnan Guo, Lan Zhang, Huaiyu Wan,
- Abstract要約: スパース軌道におけるGPSの欠落は、インテリジェント交通システムにおけるユーザの移動行動に深い洞察を与える可能性がある。
個々の軌道のマイクロセマンティックを包括的に捉えることは極めて困難である。
本研究では,マイクロマクロ空間グラフデコーダ(MM-STGED)を提案する。
- 参考スコア(独自算出の注目度): 21.911875343270683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recovering intermediate missing GPS points in a sparse trajectory, while adhering to the constraints of the road network, could offer deep insights into users' moving behaviors in intelligent transportation systems. Although recent studies have demonstrated the advantages of achieving map-constrained trajectory recovery via an end-to-end manner, they still face two significant challenges. Firstly, existing methods are mostly sequence-based models. It is extremely hard for them to comprehensively capture the micro-semantics of individual trajectory, including the information of each GPS point and the movement between two GPS points. Secondly, existing approaches ignore the impact of the macro-semantics, i.e., the road conditions and the people's shared travel preferences reflected by a group of trajectories. To address the above challenges, we propose a Micro-Macro Spatial-Temporal Graph-based Encoder-Decoder (MM-STGED). Specifically, we model each trajectory as a graph to efficiently describe the micro-semantics of trajectory and design a novel message-passing mechanism to learn trajectory representations. Additionally, we extract the macro-semantics of trajectories and further incorporate them into a well-designed graph-based decoder to guide trajectory recovery. Extensive experiments conducted on sparse trajectories with three different sampling intervals that are respectively constructed from two real-world trajectory datasets demonstrate the superiority of our proposed model.
- Abstract(参考訳): 道路網の制約に固執しながら、まばらな軌道で中間のGPSポイントを復元することは、インテリジェント交通システムにおけるユーザの移動行動に深い洞察を与える可能性がある。
近年の研究では、終端から終端までの方法で、地図に制約のある軌道回復を実現するという利点が実証されているが、それでも2つの大きな課題に直面している。
まず、既存の手法は主にシーケンスベースのモデルである。
個々のGPSポイントの情報と2つのGPSポイント間の移動を含む、個々の軌道のマイクロセマンティクスを包括的に捉えることは極めて困難である。
第二に、既存のアプローチはマクロ・セマンティックスの影響を無視している。
以上の課題に対処するために,マイクロマクロ空間時間グラフに基づくエンコーダデコーダ(MM-STGED)を提案する。
具体的には、各トラジェクトリをグラフとしてモデル化し、トラジェクトリのマイクロセマンティクスを効率的に記述し、トラジェクトリ表現を学習するための新しいメッセージパッシング機構を設計する。
さらに,トラジェクトリのマクロセマンティクスを抽出し,よりよく設計されたグラフベースのデコーダに組み込んでトラジェクトリリカバリを誘導する。
2つの実空間軌跡データセットからそれぞれ3つの異なるサンプリング間隔を持つスパース軌跡実験を行い、提案モデルの有効性を実証した。
関連論文リスト
- Homography Guided Temporal Fusion for Road Line and Marking Segmentation [73.47092021519245]
道路線やマーキングは、移動車両、影、グレアの存在下でしばしば閉鎖される。
本稿では,映像フレームを補足的に利用するHomography Guided Fusion (HomoFusion) モジュールを提案する。
カメラ固有のデータと地上平面の仮定をクロスフレーム対応に利用することにより,高速・高精度性能が向上した軽量ネットワークの実現が期待できることを示す。
論文 参考訳(メタデータ) (2024-04-11T10:26:40Z) - More Than Routing: Joint GPS and Route Modeling for Refine Trajectory
Representation Learning [26.630640299709114]
本稿では,JGRMという自己監督技術に基づく共同GPSとルートモデリングを提案する。
我々は2つのエンコーダを開発し、それぞれルートとGPSの軌跡を表現できるように調整した。
2つのモードからの表現は、モーダル間情報相互作用のための共有変換器に入力される。
論文 参考訳(メタデータ) (2024-02-25T18:27:25Z) - G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - A Critical Perceptual Pre-trained Model for Complex Trajectory Recovery [27.347708962204713]
この研究は、複雑な軌道に対するより堅牢な軌道回復を提供することを目的としている。
本稿では,多視点グラフと複雑度認識変換器(MGCAT)モデルを提案する。
その結果,F1スコアが5.22%,F1スコアが8.16%,複雑なトラジェクトリが8.16%向上した。
論文 参考訳(メタデータ) (2023-11-05T12:20:39Z) - Layout Sequence Prediction From Noisy Mobile Modality [53.49649231056857]
軌道予測は、自律運転やロボット工学などの応用における歩行者運動を理解する上で重要な役割を担っている。
現在の軌道予測モデルは、視覚的モダリティからの長い、完全な、正確に観察されたシーケンスに依存する。
本稿では,物体の障害物や視界外を,完全に視認できる軌跡を持つものと同等に扱う新しいアプローチであるLTrajDiffを提案する。
論文 参考訳(メタデータ) (2023-10-09T20:32:49Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - RNTrajRec: Road Network Enhanced Trajectory Recovery with
Spatial-Temporal Transformer [15.350300338463969]
本稿では,道路網を改良したトランスフォーマーベースフレームワーク RNTrajRec を提案する。
RNTrajRecはまずグラフモデル、すなわちGridGNNを使用して、各道路セグメントの埋め込み機能を学ぶ。
次にサブグラフ生成モジュールを導入し、各GPSポイントをGPSポイント周辺の道路ネットワークのサブグラフ構造として表現する。
論文 参考訳(メタデータ) (2022-11-23T11:28:32Z) - DouFu: A Double Fusion Joint Learning Method For Driving Trajectory
Representation [13.321587117066166]
軌道表現型共同学習のための新しい多モード融合モデルDouFuを提案する。
まず、軌道データと都市機能ゾーンから生成された動き、経路、グローバルな特徴を設計する。
グローバルなセマンティック機能により、DouFuは各行に対して包括的な埋め込みを生成する。
論文 参考訳(メタデータ) (2022-05-05T07:43:35Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - Trajectory Prediction with Graph-based Dual-scale Context Fusion [43.51107329748957]
本稿では,Dual Scale Predictorというグラフベースの軌道予測ネットワークを提案する。
静的および動的駆動コンテキストを階層的にエンコードする。
提案したデュアルスケールコンテキスト融合ネットワークにより、DSPは正確で人間らしいマルチモーダル軌道を生成することができる。
論文 参考訳(メタデータ) (2021-11-02T13:42:16Z) - Orientation Attentive Robotic Grasp Synthesis with Augmented Grasp Map
Representation [62.79160608266713]
物体の形態学的特徴は、ロボットの把握の視覚的学習を阻害する、幅広い可視的把握方向を提供する可能性がある。
既存のグリップ生成アプローチを呪い、グリップポイント毎に大きく異なる向きのアノテーションを集約することにより、不連続グリップマップを構築する。
そこで本研究では,角度空間を複数のビンに分割することで,方向を局所的に歪曲する,画素ワイズ合成に適した拡張型グリップマップ表現を提案する。
論文 参考訳(メタデータ) (2020-06-09T08:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。