論文の概要: MGMap: Mask-Guided Learning for Online Vectorized HD Map Construction
- arxiv url: http://arxiv.org/abs/2404.00876v1
- Date: Mon, 1 Apr 2024 03:13:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 23:36:01.000881
- Title: MGMap: Mask-Guided Learning for Online Vectorized HD Map Construction
- Title(参考訳): MGMap: オンラインベクトルHDマップ構築のためのマスクガイド学習
- Authors: Xiaolu Liu, Song Wang, Wentong Li, Ruizi Yang, Junbo Chen, Jianke Zhu,
- Abstract要約: 本稿では,情報領域を効果的に強調し,正確な地図要素の局所化を実現するマスク誘導方式MGMapを提案する。
具体的には、MGMapは2つの観点から強化されたマルチスケールBEV機能に基づいて学習マスクを採用する。
ベースラインと比較して,提案したMGMapは,入力モードが異なる場合,約10mAPの顕著な改善を実現している。
- 参考スコア(独自算出の注目度): 17.16231247910372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Currently, high-definition (HD) map construction leans towards a lightweight online generation tendency, which aims to preserve timely and reliable road scene information. However, map elements contain strong shape priors. Subtle and sparse annotations make current detection-based frameworks ambiguous in locating relevant feature scopes and cause the loss of detailed structures in prediction. To alleviate these problems, we propose MGMap, a mask-guided approach that effectively highlights the informative regions and achieves precise map element localization by introducing the learned masks. Specifically, MGMap employs learned masks based on the enhanced multi-scale BEV features from two perspectives. At the instance level, we propose the Mask-activated instance (MAI) decoder, which incorporates global instance and structural information into instance queries by the activation of instance masks. At the point level, a novel position-guided mask patch refinement (PG-MPR) module is designed to refine point locations from a finer-grained perspective, enabling the extraction of point-specific patch information. Compared to the baselines, our proposed MGMap achieves a notable improvement of around 10 mAP for different input modalities. Extensive experiments also demonstrate that our approach showcases strong robustness and generalization capabilities. Our code can be found at https://github.com/xiaolul2/MGMap.
- Abstract(参考訳): 現在,ハイデフィニション(HD)マップの構築は,タイムリーで信頼性の高い道路景観情報を維持することを目的とした,軽量なオンライン生成傾向に傾いている。
しかし、地図要素は強い形を持つ。
サブセットとスパースアノテーションにより、現在の検出ベースのフレームワークは、関連する機能スコープの特定において曖昧になり、予測において詳細な構造が失われる。
これらの問題を緩和するために,情報領域を効果的に強調し,学習マスクを導入して正確な地図要素のローカライゼーションを実現するためのMGMapを提案する。
具体的には、MGMapは2つの観点から強化されたマルチスケールBEV機能に基づいて学習マスクを採用する。
インスタンスレベルでは、グローバルインスタンスと構造情報をインスタンスマスクのアクティベートによってインスタンスクエリに組み込む、Mask-activated instance (MAI)デコーダを提案する。
ポイントレベルでは、位置誘導マスクパッチリファインメント(PG-MPR)モジュールは、よりきめ細かい視点からポイント位置を洗練し、ポイント固有のパッチ情報の抽出を可能にするように設計されている。
ベースラインと比較して,提案したMGMapは,入力モードが異なる場合,約10mAPの顕著な改善を実現している。
大規模な実験は、我々のアプローチが強い堅牢性と一般化能力を示すことも示している。
私たちのコードはhttps://github.com/xiaolul2/MGMapで確認できます。
関連論文リスト
- MaskInversion: Localized Embeddings via Optimization of Explainability Maps [49.50785637749757]
MaskInversionは、テスト時にマスクによって指定されたクエリ画像領域に対するコンテキスト認識の埋め込みを生成する。
オープン語彙のクラス検索、表現理解の参照、局所的なキャプションや画像生成など、幅広いタスクに使用することができる。
論文 参考訳(メタデータ) (2024-07-29T14:21:07Z) - Mask2Map: Vectorized HD Map Construction Using Bird's Eye View Segmentation Masks [9.113769643415868]
本稿では,自動運転アプリケーション用に設計された,新しいエンドツーエンドのオンラインHDマップ構築手法であるMask2Mapを紹介する。
このアプローチでは、シーン内のマップインスタンスのクラスと順序付けられたポイントセットを予測することに重点を置いています。
Mask2Mapは、従来の最先端メソッドよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-18T13:48:52Z) - Downstream Task Guided Masking Learning in Masked Autoencoders Using
Multi-Level Optimization [42.82742477950748]
Masked Autoencoder (MAE) は視覚表現学習における自己教師付き事前学習のための重要な手法である。
プリトレーニング中に最適なマスキング戦略を学習する新しいフレームワークであるMulti-level Optimized Mask Autoencoder (MLO-MAE)を紹介する。
視覚表現学習におけるMLO-MAEの進歩について検討した。
論文 参考訳(メタデータ) (2024-02-28T07:37:26Z) - Background Activation Suppression for Weakly Supervised Object
Localization and Semantic Segmentation [84.62067728093358]
弱教師付きオブジェクトローカライゼーションとセマンティックセグメンテーションは、画像レベルのラベルのみを使用してオブジェクトをローカライズすることを目的としている。
画素レベルのローカライゼーションを実現するために,フォアグラウンド予測マップを生成することで,新たなパラダイムが誕生した。
本稿では,物体の局在化学習過程に関する2つの驚くべき実験結果を示す。
論文 参考訳(メタデータ) (2023-09-22T15:44:10Z) - Hierarchical Dynamic Masks for Visual Explanation of Neural Networks [5.333582981327497]
モデル分類における画像画素の重要性を表す視覚的説明マップを生成するサリエンシ手法は、ニューラルネットワークの決定を説明するための一般的な手法である。
本稿では,新しい説明地図生成手法である階層型動的マスク(HDM)を提案する。
提案手法は, 自然および医学的なデータセット上での認識と位置推定能力において, 従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-01-12T12:24:49Z) - GD-MAE: Generative Decoder for MAE Pre-training on LiDAR Point Clouds [72.60362979456035]
Masked Autoencoders (MAE)は、大規模な3Dポイントクラウドでの探索が難しい。
我々は,周囲のコンテキストを自動的にマージするためのtextbfGenerative textbfDecoder for MAE (GD-MAE)を提案する。
提案手法の有効性を, KITTI と ONCE の2つの大規模ベンチマークで実証した。
論文 参考訳(メタデータ) (2022-12-06T14:32:55Z) - Masked Surfel Prediction for Self-Supervised Point Cloud Learning [40.16043026141161]
マスク付き自動符号化において局所幾何学情報を明示的に考慮する最初の試みを行い,Masked Surfel Prediction (MaskSurf)法を提案する。
具体的には、入力点雲が高い比でマスクされていることを考慮し、トランスフォーマーベースのエンコーダデコーダネットワークを学習し、基礎となるマスク付きサーフを推定する。
MaskSurfは3つの微調整戦略の下で6つの下流タスクで検証される。
論文 参考訳(メタデータ) (2022-07-07T06:47:26Z) - Layered Depth Refinement with Mask Guidance [61.10654666344419]
汎用マスクを用いてSIDEモデルの深度予測を洗練させるマスク誘導深度改善の新しい問題を定式化する。
本フレームワークは,奥行きマップをマスクと逆マスクで表される2つの別々の層に分解し,層状改質・塗装・塗装を行う。
本手法は,内面境界領域と外面境界領域の深度を正確に補正し,異なる種類のマスクや初期深度予測に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-06-07T06:42:44Z) - Image Inpainting by End-to-End Cascaded Refinement with Mask Awareness [66.55719330810547]
任意の欠落領域を塗りつぶすことは、様々なマスクされた領域で有効な特徴を学ぶことは非自明だから難しい。
符号化フェーズにおける欠落領域のマルチスケール特徴を学習する新しいマスク対応インペイントソリューションを提案する。
私たちのフレームワークは、3つの公開データセットに関する広範な実験を通じて定量的および定性的に検証されます。
論文 参考訳(メタデータ) (2021-04-28T13:17:47Z) - Spatiotemporal Graph Neural Network based Mask Reconstruction for Video
Object Segmentation [70.97625552643493]
本稿では,クラス非依存オブジェクトを半教師あり設定でセグメント化するタスクについて述べる。
提案手法のすべてを利用して局所的なコンテキストを捕捉する新しいグラフニューラルネットワーク(TG-Net)を提案する。
論文 参考訳(メタデータ) (2020-12-10T07:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。