論文の概要: NeMO: Neural Map Growing System for Spatiotemporal Fusion in
Bird's-Eye-View and BDD-Map Benchmark
- arxiv url: http://arxiv.org/abs/2306.04540v1
- Date: Wed, 7 Jun 2023 15:46:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 13:32:34.947824
- Title: NeMO: Neural Map Growing System for Spatiotemporal Fusion in
Bird's-Eye-View and BDD-Map Benchmark
- Title(参考訳): NeMO:Bird-Eye-ViewとBDD-Mapベンチマークにおける時空間融合のためのニューラルマップ育成システム
- Authors: Xi Zhu, Xiya Cao, Zhiwei Dong, Caifa Zhou, Qiangbo Liu, Wei Li,
Yongliang Wang
- Abstract要約: 視覚中心のBird's-Eye View表現は自律運転システムに不可欠である。
この研究は、読みやすく、説明可能なビッグマップを利用してローカルマップを生成するための、NeMOという新しいパラダイムを概説する。
すべてのBEVグリッドの特徴分布が同じパターンに従うと仮定して、すべてのグリッドに対して共有重み付きニューラルネットワークを採用して、ビッグマップを更新する。
- 参考スコア(独自算出の注目度): 9.430779563669908
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Vision-centric Bird's-Eye View (BEV) representation is essential for
autonomous driving systems (ADS). Multi-frame temporal fusion which leverages
historical information has been demonstrated to provide more comprehensive
perception results. While most research focuses on ego-centric maps of fixed
settings, long-range local map generation remains less explored. This work
outlines a new paradigm, named NeMO, for generating local maps through the
utilization of a readable and writable big map, a learning-based fusion module,
and an interaction mechanism between the two. With an assumption that the
feature distribution of all BEV grids follows an identical pattern, we adopt a
shared-weight neural network for all grids to update the big map. This paradigm
supports the fusion of longer time series and the generation of long-range BEV
local maps. Furthermore, we release BDD-Map, a BDD100K-based dataset
incorporating map element annotations, including lane lines, boundaries, and
pedestrian crossing. Experiments on the NuScenes and BDD-Map datasets
demonstrate that NeMO outperforms state-of-the-art map segmentation methods. We
also provide a new scene-level BEV map evaluation setting along with the
corresponding baseline for a more comprehensive comparison.
- Abstract(参考訳): 視覚中心鳥眼図(bev)表現は自律運転システム(ads)において必須である。
歴史的情報を活用したマルチフレーム時相融合により,より包括的な知覚結果が得られることが実証されている。
ほとんどの研究は、固定された設定のエゴ中心の地図に焦点を当てているが、長距離のローカルマップ生成は、あまり研究されていない。
本研究は,可読かつ記述可能なビッグマップ,学習ベース融合モジュール,および両者間の相互作用機構を利用して局所地図を生成するための,NeMOという新しいパラダイムの概要を述べる。
すべてのBEVグリッドの特徴分布が同じパターンに従うと仮定して、すべてのグリッドに対して共有重み付きニューラルネットワークを採用して、ビッグマップを更新する。
このパラダイムは、長い時系列と長距離BEVローカルマップの生成の融合をサポートする。
さらに、車線、境界線、歩行者横断を含むマップ要素アノテーションを組み込んだBDD100KベースのデータセットであるBDD-Mapをリリースする。
NuScenesとBDD-Mapデータセットの実験は、NeMOが最先端のマップセグメンテーションメソッドより優れていることを示している。
また,より総合的な比較のために,新たなシーンレベルのBEVマップ評価設定と対応するベースラインを提供する。
関連論文リスト
- TopoSD: Topology-Enhanced Lane Segment Perception with SDMap Prior [70.84644266024571]
我々は、標準定義地図(SDMaps)を見るために知覚モデルを訓練することを提案する。
我々はSDMap要素をニューラル空間マップ表現やインスタンストークンにエンコードし、先行情報のような補完的な特徴を組み込む。
レーンセグメント表現フレームワークに基づいて、モデルはレーン、中心線、およびそれらのトポロジを同時に予測する。
論文 参考訳(メタデータ) (2024-11-22T06:13:42Z) - VQ-Map: Bird's-Eye-View Map Layout Estimation in Tokenized Discrete Space via Vector Quantization [108.68014173017583]
Bird's-eye-view (BEV) マップのレイアウト推定には、エゴ車の周囲の環境要素のセマンティクスを正確に完全に理解する必要がある。
本稿では,Vector Quantized-Variational AutoEncoder (VQ-VAE) に似た生成モデルを用いて,トークン化された離散空間における高レベルのBEVセマンティクスの事前知識を取得することを提案する。
得られたBEVトークンには,異なるBEV要素のセマンティクスを包含したコードブックが組み込まれているため,スパースバックボーン画像特徴と得られたBEVトークンとを直接一致させることができる。
論文 参考訳(メタデータ) (2024-11-03T16:09:47Z) - Enhancing Vectorized Map Perception with Historical Rasterized Maps [37.48510990922406]
我々は,オンラインベクトル化地図知覚を高めるために,低コストな履歴ラスタライズドマップを利用するHRMapNetを提案する。
履歴化された地図は、過去の予測されたベクトル化された結果から容易に構築でき、貴重な補完情報を提供する。
HRMapNetは、ほとんどのオンラインベクトル化マップ認識手法と統合することができる。
論文 参考訳(メタデータ) (2024-09-01T05:22:33Z) - Progressive Query Refinement Framework for Bird's-Eye-View Semantic Segmentation from Surrounding Images [3.495246564946556]
本稿では, 自律運転のためのバードズ・アイビュー(BEV)セマンティックセマンティックセグメンテーションにMR(Multi-Resolution)の概念を導入する。
本稿では,画像間と特徴レベル間の相互作用を促進する視覚的特徴相互作用ネットワークを提案する。
大規模な実世界のデータセットを用いて、我々のモデルを評価する。
論文 参考訳(メタデータ) (2024-07-24T05:00:31Z) - Map It Anywhere (MIA): Empowering Bird's Eye View Mapping using Large-scale Public Data [3.1968751101341173]
トップダウンのBird's Eye View (BEV)マップは、下流タスクの豊かさと柔軟性のために、地上ロボットナビゲーションの一般的な表現である。
最近の手法では、ファーストパーソンビュー(FPV)画像からBEVマップを予測できることが示されている。
2つの大規模クラウドソースマッピングプラットフォームを利用することで,よりスケーラブルなマップ予測手法が実現可能であることを示す。
論文 参考訳(メタデータ) (2024-07-11T17:57:22Z) - MV-Map: Offboard HD-Map Generation with Multi-view Consistency [29.797769409113105]
Bird's-eye-view (BEV) の知覚モデルは、人間の労働力が少ない高精細地図(HD-Maps)を構築するのに有用である。
これらの結果は、しばしば信頼できないものであり、異なる視点から予測されたHD-Mapに顕著な矛盾を示す。
本稿では,計算制約を解消する,より実用的な「オフボード」なHDマップ生成機構を提案する。
論文 参考訳(メタデータ) (2023-05-15T17:59:15Z) - Neural Map Prior for Autonomous Driving [17.198729798817094]
高精細(HD)セマンティックマップは、自動運転車が都市環境をナビゲートするために不可欠である。
オフラインのHDマップを作成する従来の方法には、労働集約的な手動アノテーションプロセスが含まれる。
近年,オンラインセンサを用いた局所地図作成手法が提案されている。
本研究では,グローバルマップのニューラル表現であるニューラルマッププライオリティ(NMP)を提案する。
論文 参考訳(メタデータ) (2023-04-17T17:58:40Z) - BEVBert: Multimodal Map Pre-training for Language-guided Navigation [75.23388288113817]
視覚・言語ナビゲーション(VLN)における空間認識型マップベース事前学習パラダイムを提案する。
我々は,グローバルなトポロジカルマップにおけるナビゲーション依存性をモデル化しながら,不完全な観測を明示的に集約し,重複を取り除くための局所距離マップを構築した。
ハイブリッドマップをベースとして,マルチモーダルマップ表現を学習するための事前学習フレームワークを考案し,空間認識型クロスモーダル推論を強化し,言語誘導ナビゲーションの目標を導出する。
論文 参考訳(メタデータ) (2022-12-08T16:27:54Z) - Long-term Visual Map Sparsification with Heterogeneous GNN [47.12309045366042]
本稿では,環境変化を克服し,将来のローカライゼーションに有用な点を選択することで,地図サイズを同時に削減することを目的とする。
グラフニューラルネットワーク(GNN)の最近の進歩に触発されて,SfMマップを異種グラフとしてモデル化し,GNNを用いて3次元点重要度を推定する最初の研究を提案する。
2つの新しい監督手法が提案されている: 1) トレーニングクエリに基づく将来のローカライゼーションに有用なポイントを選択するためのデータ適合用語、2) スパースポイントをフルマップで選択するためのK-Cover用語。
論文 参考訳(メタデータ) (2022-03-29T01:46:12Z) - HDMapGen: A Hierarchical Graph Generative Model of High Definition Maps [81.86923212296863]
HDマップは道路路面の正確な定義と交通ルールの豊富な意味を持つ地図である。
実際の道路トポロジやジオメトリはごくわずかで、自動運転スタックをテストする能力は著しく制限されています。
高品質で多様なHDマップを生成可能な階層グラフ生成モデルであるHDMapGenを提案する。
論文 参考訳(メタデータ) (2021-06-28T17:59:30Z) - Label Decoupling Framework for Salient Object Detection [157.96262922808245]
近年の手法は, 畳み込みネットワーク(FCN)からの多層的特徴の集約と, エッジ情報の導入に重点を置いている。
ラベルデカップリング手順と機能相互作用ネットワーク(FIN)からなるラベルデカップリングフレームワーク(LDF)を提案する。
6つのベンチマークデータセットの実験では、LDFはさまざまな評価指標における最先端のアプローチよりも優れていることが示されている。
論文 参考訳(メタデータ) (2020-08-25T14:23:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。