論文の概要: Translating Images to Road Network:A Non-Autoregressive
Sequence-to-Sequence Approach
- arxiv url: http://arxiv.org/abs/2402.08207v1
- Date: Tue, 13 Feb 2024 04:12:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 16:28:59.330215
- Title: Translating Images to Road Network:A Non-Autoregressive
Sequence-to-Sequence Approach
- Title(参考訳): 道路網への画像翻訳:非自己回帰的シーケンス対シーケンスアプローチ
- Authors: Jiachen Lu, Renyuan Peng, Xinyue Cai, Hang Xu, Hongyang Li, Feng Wen,
Wei Zhang, Li Zhang
- Abstract要約: 道路網は高精細地図の生成に不可欠である。
道路ネットワークの生成は、ユークリッドと非ユークリッド構造の組み合わせが相反するため、大きな課題となる。
我々の研究は、ユークリッドデータと非ユークリッドデータの両方をRoadNet Sequenceと呼ばれる整数列に投影することで、両方のデータ領域の統一表現を確立します。
- 参考スコア(独自算出の注目度): 43.7584278694915
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The extraction of road network is essential for the generation of
high-definition maps since it enables the precise localization of road
landmarks and their interconnections. However, generating road network poses a
significant challenge due to the conflicting underlying combination of
Euclidean (e.g., road landmarks location) and non-Euclidean (e.g., road
topological connectivity) structures. Existing methods struggle to merge the
two types of data domains effectively, but few of them address it properly.
Instead, our work establishes a unified representation of both types of data
domain by projecting both Euclidean and non-Euclidean data into an integer
series called RoadNet Sequence. Further than modeling an auto-regressive
sequence-to-sequence Transformer model to understand RoadNet Sequence, we
decouple the dependency of RoadNet Sequence into a mixture of auto-regressive
and non-autoregressive dependency. Building on this, our proposed
non-autoregressive sequence-to-sequence approach leverages non-autoregressive
dependencies while fixing the gap towards auto-regressive dependencies,
resulting in success on both efficiency and accuracy. Extensive experiments on
nuScenes dataset demonstrate the superiority of RoadNet Sequence representation
and the non-autoregressive approach compared to existing state-of-the-art
alternatives. The code is open-source on
https://github.com/fudan-zvg/RoadNetworkTRansformer.
- Abstract(参考訳): 道路ランドマークとその相互接続の正確な位置化を可能にするため,道路網の抽出は高精細地図の生成に不可欠である。
しかし、道路ネットワークの生成は、ユークリッド(例えば、道路ランドマークの位置)と非ユークリッド(例えば、道路トポロジー接続)構造の相反する組み合わせによって大きな課題となっている。
既存の方法は2つのタイプのデータドメインを効果的にマージするのに苦労するが、それを適切に扱う方法はほとんどない。
代わりに、ユークリッドデータと非ユークリッドデータの両方を roadnet sequence と呼ばれる整数列に投影することで、両方のデータドメインの統一表現を確立します。
RoadNet Sequenceを理解するために自動回帰シーケンス列変換モデルをモデル化するだけでなく、RoadNet Sequenceの依存関係を自動回帰と非自己回帰の混合に分離する。
これを踏まえて,提案手法では,非自己回帰的依存関係を活用しつつ,自己回帰的依存関係に対するギャップを解消し,効率と精度の両面で成功を収める。
nuScenesデータセットの大規模な実験は、既存の最先端の代替手段と比較して、RoadNet Sequence表現と非自己回帰アプローチの優位性を示している。
コードはhttps://github.com/fudan-zvg/RoadNetworkTRansformerで公開されている。
関連論文リスト
- Holistically-Nested Structure-Aware Graph Neural Network for Road Extraction [6.537257686406911]
本稿では,道路領域と道路境界の両方を同時に検出する新しいグラフニューラルネットワーク(GNN)を提案する。
挑戦的データセットの実験により,提案手法が道路境界のデライン化と道路抽出精度を向上させることを示す。
論文 参考訳(メタデータ) (2024-07-02T20:11:09Z) - GASE: Graph Attention Sampling with Edges Fusion for Solving Vehicle Routing Problems [6.084414764415137]
車両のルーティング問題を解決するためにEdges Fusionフレームワークを用いた適応型グラフ注意サンプリングを提案する。
提案手法は,既存の手法を2.08%-6.23%上回り,より強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-05-21T03:33:07Z) - Network Alignment with Transferable Graph Autoencoders [79.89704126746204]
本稿では,強力で堅牢なノード埋め込みを抽出するグラフオートエンコーダアーキテクチャを提案する。
生成した埋め込みがグラフの固有値と固有ベクトルと結びついていることを証明する。
提案フレームワークは転送学習とデータ拡張を利用して,大規模なネットワークアライメントを実現する。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - DDGHM: Dual Dynamic Graph with Hybrid Metric Training for Cross-Domain
Sequential Recommendation [15.366783212837515]
Sequential Recommendation (SR) は、ユーザがアイテム間を移動する方法をモデル化することによって、ユーザの行動の進化パターンを特徴付ける。
この問題を解決するため、我々はクロスドメインシーケンスレコメンデーション(CDSR)に焦点を当てる。
本稿では,CDSR問題のための新しいフレームワークであるDDGHMを提案する。
論文 参考訳(メタデータ) (2022-09-21T07:53:06Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Trajectory Prediction with Graph-based Dual-scale Context Fusion [43.51107329748957]
本稿では,Dual Scale Predictorというグラフベースの軌道予測ネットワークを提案する。
静的および動的駆動コンテキストを階層的にエンコードする。
提案したデュアルスケールコンテキスト融合ネットワークにより、DSPは正確で人間らしいマルチモーダル軌道を生成することができる。
論文 参考訳(メタデータ) (2021-11-02T13:42:16Z) - Road Network Guided Fine-Grained Urban Traffic Flow Inference [108.64631590347352]
粗いトラフィックからのきめ細かなトラフィックフローの正確な推測は、新たな重要な問題である。
本稿では,道路ネットワークの知識を活かした新しい道路対応交通流磁化器(RATFM)を提案する。
提案手法は,高品質なトラフィックフローマップを作成できる。
論文 参考訳(メタデータ) (2021-09-29T07:51:49Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Unstructured Road Vanishing Point Detection Using the Convolutional
Neural Network and Heatmap Regression [3.8170259685864165]
本稿では,畳み込みニューラルネットワーク(CNN)と熱マップ回帰を組み合わせた新しい手法を提案する。
提案アルゴリズムは、まず軽量なバックボーン、すなわち深度的に畳み込み修正されたHRNetを採用し、非構造化道路画像の階層的特徴を抽出する。
高速かつ高精度な道路VP検出を実現するために, マルチスケール教師付き学習, ヒートマップ超解像, 座標回帰手法の3つの先進戦略を利用する。
論文 参考訳(メタデータ) (2020-06-08T15:44:37Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z) - Constructing Geographic and Long-term Temporal Graph for Traffic
Forecasting [88.5550074808201]
交通予測のための地理・長期時間グラフ畳み込み型ニューラルネットワーク(GLT-GCRNN)を提案する。
本研究では,地理的・長期的時間的パターンを共有する道路間のリッチな相互作用を学習する交通予測のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-23T03:50:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。