論文の概要: MapFusion: A General Framework for 3D Object Detection with HDMaps
- arxiv url: http://arxiv.org/abs/2103.05929v1
- Date: Wed, 10 Mar 2021 08:36:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 14:54:27.095097
- Title: MapFusion: A General Framework for 3D Object Detection with HDMaps
- Title(参考訳): MapFusion: HDMapによる3Dオブジェクト検出のための汎用フレームワーク
- Authors: Jin Fang, Dingfu Zhou, Xibin Song, Liangjun Zhang
- Abstract要約: 現代の3Dオブジェクトディテクタパイプラインにマップ情報を統合するためのMapFusionを提案します。
マップ情報を融合することにより、3つの強力な3dオブジェクト検出ベースラインで平均精度(map)が1.27ポイントから2.79ポイント向上する。
- 参考スコア(独自算出の注目度): 17.482961825285013
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: 3D object detection is a key perception component in autonomous driving. Most
recent approaches are based on Lidar sensors only or fused with cameras. Maps
(e.g., High Definition Maps), a basic infrastructure for intelligent vehicles,
however, have not been well exploited for boosting object detection tasks. In
this paper, we propose a simple but effective framework - MapFusion to
integrate the map information into modern 3D object detector pipelines. In
particular, we design a FeatureAgg module for HD Map feature extraction and
fusion, and a MapSeg module as an auxiliary segmentation head for the detection
backbone. Our proposed MapFusion is detector independent and can be easily
integrated into different detectors. The experimental results of three
different baselines on large public autonomous driving dataset demonstrate the
superiority of the proposed framework. By fusing the map information, we can
achieve 1.27 to 2.79 points improvements for mean Average Precision (mAP) on
three strong 3d object detection baselines.
- Abstract(参考訳): 3Dオブジェクト検出は、自動運転における重要な認識コンポーネントです。
最近のアプローチは、Lidarセンサーのみに基づいており、カメラで融合している。
しかし、インテリジェントな車両の基本的なインフラであるマップ(High Definition Mapsなど)は、物体検出タスクの強化にあまり使われていない。
本稿では,地図情報を現代の3Dオブジェクト検出器パイプラインに統合する簡易かつ効果的なフレームワークであるMapFusionを提案する。
特に,hdマップの特徴抽出と融合のためのfeatureaggモジュールと,検出バックボーンのための補助セグメンテーションヘッドとしてmapegモジュールを設計した。
提案するmapfusionは検出器独立であり,様々な検出器に容易に統合できる。
大規模な公道走行データセットに対する3つの異なるベースラインの実験結果は、提案フレームワークの優位性を示している。
マップ情報を融合することにより、3つの強力な3dオブジェクト検出ベースラインで平均精度(map)が1.27ポイントから2.79ポイント向上する。
関連論文リスト
- SeSame: Simple, Easy 3D Object Detection with Point-Wise Semantics [0.7373617024876725]
自律運転では、3Dオブジェクト検出は、経路計画や動き推定を含む下流タスクに対してより正確な情報を提供する。
本稿では,既存のLiDARのみに基づく3Dオブジェクト検出における意味情報の強化を目的としたSeSameを提案する。
KITTIオブジェクト検出ベンチマークにおいて,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-03-11T08:17:56Z) - InsMapper: Exploring Inner-instance Information for Vectorized HD
Mapping [41.59891369655983]
InsMapperは、トランスフォーマーによるベクトル化された高精細マッピングのインナーインスタンス情報を利用する。
InsMapperは従来の最先端の手法を超越し、その有効性と汎用性を示している。
論文 参考訳(メタデータ) (2023-08-16T17:58:28Z) - Fully Sparse 3D Object Detection [57.05834683261658]
長距離LiDARオブジェクト検出のためのフルスパース3Dオブジェクト検出器(FSD)を構築した。
FSDは一般的なスパース・ボクセル・エンコーダと新しいスパース・インスタンス認識(SIR)モジュール上に構築されている。
SIRは、ポイントをインスタンスにグループ化することで、以前のポイントベースのメソッドでの待ち行列クエリを避ける。
論文 参考訳(メタデータ) (2022-07-20T17:01:33Z) - Paint and Distill: Boosting 3D Object Detection with Semantic Passing
Network [70.53093934205057]
ライダーやカメラセンサーからの3Dオブジェクト検出タスクは、自動運転に不可欠である。
本研究では,既存のライダーベース3D検出モデルの性能向上を図るために,SPNetという新しいセマンティックパスフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T12:35:34Z) - DeepFusion: Lidar-Camera Deep Fusion for Multi-Modal 3D Object Detection [83.18142309597984]
ライダーとカメラは、自動運転における3D検出を補完する情報を提供する重要なセンサーである。
我々はDeepFusionという名前の汎用マルチモーダル3D検出モデル群を開発した。
論文 参考訳(メタデータ) (2022-03-15T18:46:06Z) - A Versatile Multi-View Framework for LiDAR-based 3D Object Detection
with Guidance from Panoptic Segmentation [9.513467995188634]
LiDARデータを用いた3Dオブジェクト検出は、自律運転システムにとって必須のコンポーネントである。
本稿では,3次元物体検出とパノプティックセグメンテーションを共同で行う新しいマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-04T04:57:05Z) - VIN: Voxel-based Implicit Network for Joint 3D Object Detection and
Segmentation for Lidars [12.343333815270402]
統合ニューラルネットワーク構造は、ジョイント3Dオブジェクト検出とポイントクラウドセグメンテーションのために提示される。
私たちは、検出ラベルとセグメンテーションラベルの両方からの豊富な監視を活用しています。
論文 参考訳(メタデータ) (2021-07-07T02:16:20Z) - M3DeTR: Multi-representation, Multi-scale, Mutual-relation 3D Object
Detection with Transformers [78.48081972698888]
M3DeTRは、マルチスケールのフィーチャーピラミッドに基づいて、異なるポイントクラウド表現と異なる機能スケールを組み合わせたものです。
M3DeTRは、複数のポイントクラウド表現、機能スケール、およびトランスを使用してポイントクラウド間の相互関係を同時にモデル化する最初のアプローチです。
論文 参考訳(メタデータ) (2021-04-24T06:48:23Z) - HDNET: Exploiting HD Maps for 3D Object Detection [99.49035895393934]
高精細度(hd)マップは、現代の3dオブジェクト検出器の性能と頑健性を高める強力な事前情報を提供する。
我々はHDマップから幾何学的特徴と意味的特徴を抽出する単一ステージ検出器を設計する。
地図は至る所では利用できないため、生のLiDARデータからフライ時の地図を推定するマップ予測モジュールも提案する。
論文 参考訳(メタデータ) (2020-12-21T21:59:54Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。