論文の概要: RSN: Range Sparse Net for Efficient, Accurate LiDAR 3D Object Detection
- arxiv url: http://arxiv.org/abs/2106.13365v1
- Date: Fri, 25 Jun 2021 00:23:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 01:14:03.919083
- Title: RSN: Range Sparse Net for Efficient, Accurate LiDAR 3D Object Detection
- Title(参考訳): RSN: 高精度LiDAR3次元物体検出のためのレンジスパースネット
- Authors: Pei Sun, Weiyue Wang, Yuning Chai, Gamaleldin Elsayed, Alex Bewley,
Xiao Zhang, Cristian Sminchisescu, Dragomir Anguelov
- Abstract要約: Range Sparse Net (RSN) は、単純で効率的で正確な3Dオブジェクト検出器である。
RSNは、範囲画像からフォアグラウンドポイントを予測し、選択したフォアグラウンドポイントにスパース畳み込みを適用してオブジェクトを検出する。
RSNは、LiDARベースの歩行者と車両検出のためのAPH/LEVEL 1メトリクスに基づいて、リーダーボードで第1位にランクされている。
- 参考スコア(独自算出の注目度): 44.024530632421836
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The detection of 3D objects from LiDAR data is a critical component in most
autonomous driving systems. Safe, high speed driving needs larger detection
ranges, which are enabled by new LiDARs. These larger detection ranges require
more efficient and accurate detection models. Towards this goal, we propose
Range Sparse Net (RSN), a simple, efficient, and accurate 3D object detector in
order to tackle real time 3D object detection in this extended detection
regime. RSN predicts foreground points from range images and applies sparse
convolutions on the selected foreground points to detect objects. The
lightweight 2D convolutions on dense range images results in significantly
fewer selected foreground points, thus enabling the later sparse convolutions
in RSN to efficiently operate. Combining features from the range image further
enhance detection accuracy. RSN runs at more than 60 frames per second on a
150m x 150m detection region on Waymo Open Dataset (WOD) while being more
accurate than previously published detectors. As of 11/2020, RSN is ranked
first in the WOD leaderboard based on the APH/LEVEL 1 metrics for LiDAR-based
pedestrian and vehicle detection, while being several times faster than
alternatives.
- Abstract(参考訳): LiDARデータから3Dオブジェクトを検出することは、ほとんどの自律運転システムにおいて重要な要素である。
安全で高速な運転には、新しいLiDARによって実現されるより大きな検知範囲が必要である。
これらのより大きな検出範囲はより効率的で正確な検出モデルを必要とする。
本研究では,この拡張検出方式でリアルタイム3次元物体検出を実現するために,簡易で効率的かつ高精度な3次元物体検出器であるレンジスパースネット(RSN)を提案する。
RSNは、範囲画像からフォアグラウンドポイントを予測し、選択したフォアグラウンドポイントにスパース畳み込みを適用してオブジェクトを検出する。
高密度領域画像上の軽量な2D畳み込みは、選択された前景点を著しく減らし、後の粗い畳み込みをRCNで効率的に操作できるようにする。
距離画像の特徴を組み合わせることで検出精度がさらに向上する。
rsnはwaymo open dataset(wod)上の150m x 150m検出領域で毎秒60フレーム以上動作し、以前公開された検出器よりも正確である。
RSNは2020年11月11日現在、LiDARをベースとした歩行者および車両検出のためのAPH/LEVEL 1測定値に基づいて、WODのリーダーボードで第1位にランクされている。
関連論文リスト
- Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - Towards Long-Range 3D Object Detection for Autonomous Vehicles [4.580520623362462]
長距離での3次元物体検出は、自動運転車の安全性と効率を確保するために不可欠である。
芸術的LiDARに基づく手法の現在のほとんどの状態は、長距離でのスパーシリティのため、範囲が限られている。
我々は,現在のLiDARを用いた3D検出器の長距離性能を改善する2つの方法を検討した。
論文 参考訳(メタデータ) (2023-10-07T13:39:46Z) - An Empirical Analysis of Range for 3D Object Detection [70.54345282696138]
本稿では,長距離検出データセットArgoverse 2.0を用いた遠距離3次元検出の実験的検討を行った。
近接場LiDARの測定は、小さなボクセルによって密度が高く最適に符号化され、遠距離場の測定は疎く、大きなボクセルで符号化されている。
本研究では,33%の効率向上と3.2%のCDSの精度向上を図った。
論文 参考訳(メタデータ) (2023-08-08T05:29:26Z) - Super Sparse 3D Object Detection [48.684300007948906]
LiDARベースの3Dオブジェクト検出は、自動運転における長距離認識にますます貢献する。
高速な長距離検出を実現するため,まずフルスパース物体検出器FSDを提案する。
FSD++は、連続するフレーム間の点変化を示す残差点を生成する。
論文 参考訳(メタデータ) (2023-01-05T17:03:56Z) - PointPillars Backbone Type Selection For Fast and Accurate LiDAR Object
Detection [0.0]
深部畳み込みニューラルネットワークのバックボーン選択が検出精度と速度に及ぼす影響について実験を行った。
私たちはPointPillarsネットワークを選択しました。これは単純なアーキテクチャ、高速、モジュール性が特徴で、簡単に拡張できます。
論文 参考訳(メタデータ) (2022-09-30T06:18:14Z) - Fully Sparse 3D Object Detection [57.05834683261658]
長距離LiDARオブジェクト検出のためのフルスパース3Dオブジェクト検出器(FSD)を構築した。
FSDは一般的なスパース・ボクセル・エンコーダと新しいスパース・インスタンス認識(SIR)モジュール上に構築されている。
SIRは、ポイントをインスタンスにグループ化することで、以前のポイントベースのメソッドでの待ち行列クエリを避ける。
論文 参考訳(メタデータ) (2022-07-20T17:01:33Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - Sparse LiDAR and Stereo Fusion (SLS-Fusion) for Depth Estimationand 3D
Object Detection [3.5488685789514736]
SLS-Fusionは、深度推定のためにニューラルネットワークを介して4ビームLiDARとステレオカメラからデータを融合する新しいアプローチです。
4ビームのLiDARは64ビームのLiDARよりも安価であるため、この手法は低コストのセンサベース手法に分類される。
論文 参考訳(メタデータ) (2021-03-05T23:10:09Z) - LRPD: Long Range 3D Pedestrian Detection Leveraging Specific Strengths
of LiDAR and RGB [12.650574326251023]
KITTIベンチマークの現在の最先端技術は、歩行者の位置を長距離で検出する際の準最適化を行う。
本稿では,RGBの密度とLiDARの精度を利用して,長距離3次元歩行者検出(LRPD)を対象とするアプローチを提案する。
これは、現在の最先端技術と比較して、長い範囲でmAPが大幅に改善される。
論文 参考訳(メタデータ) (2020-06-17T09:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。