論文の概要: RSN: Range Sparse Net for Efficient, Accurate LiDAR 3D Object Detection
- arxiv url: http://arxiv.org/abs/2106.13365v1
- Date: Fri, 25 Jun 2021 00:23:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 01:14:03.919083
- Title: RSN: Range Sparse Net for Efficient, Accurate LiDAR 3D Object Detection
- Title(参考訳): RSN: 高精度LiDAR3次元物体検出のためのレンジスパースネット
- Authors: Pei Sun, Weiyue Wang, Yuning Chai, Gamaleldin Elsayed, Alex Bewley,
Xiao Zhang, Cristian Sminchisescu, Dragomir Anguelov
- Abstract要約: Range Sparse Net (RSN) は、単純で効率的で正確な3Dオブジェクト検出器である。
RSNは、範囲画像からフォアグラウンドポイントを予測し、選択したフォアグラウンドポイントにスパース畳み込みを適用してオブジェクトを検出する。
RSNは、LiDARベースの歩行者と車両検出のためのAPH/LEVEL 1メトリクスに基づいて、リーダーボードで第1位にランクされている。
- 参考スコア(独自算出の注目度): 44.024530632421836
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The detection of 3D objects from LiDAR data is a critical component in most
autonomous driving systems. Safe, high speed driving needs larger detection
ranges, which are enabled by new LiDARs. These larger detection ranges require
more efficient and accurate detection models. Towards this goal, we propose
Range Sparse Net (RSN), a simple, efficient, and accurate 3D object detector in
order to tackle real time 3D object detection in this extended detection
regime. RSN predicts foreground points from range images and applies sparse
convolutions on the selected foreground points to detect objects. The
lightweight 2D convolutions on dense range images results in significantly
fewer selected foreground points, thus enabling the later sparse convolutions
in RSN to efficiently operate. Combining features from the range image further
enhance detection accuracy. RSN runs at more than 60 frames per second on a
150m x 150m detection region on Waymo Open Dataset (WOD) while being more
accurate than previously published detectors. As of 11/2020, RSN is ranked
first in the WOD leaderboard based on the APH/LEVEL 1 metrics for LiDAR-based
pedestrian and vehicle detection, while being several times faster than
alternatives.
- Abstract(参考訳): LiDARデータから3Dオブジェクトを検出することは、ほとんどの自律運転システムにおいて重要な要素である。
安全で高速な運転には、新しいLiDARによって実現されるより大きな検知範囲が必要である。
これらのより大きな検出範囲はより効率的で正確な検出モデルを必要とする。
本研究では,この拡張検出方式でリアルタイム3次元物体検出を実現するために,簡易で効率的かつ高精度な3次元物体検出器であるレンジスパースネット(RSN)を提案する。
RSNは、範囲画像からフォアグラウンドポイントを予測し、選択したフォアグラウンドポイントにスパース畳み込みを適用してオブジェクトを検出する。
高密度領域画像上の軽量な2D畳み込みは、選択された前景点を著しく減らし、後の粗い畳み込みをRCNで効率的に操作できるようにする。
距離画像の特徴を組み合わせることで検出精度がさらに向上する。
rsnはwaymo open dataset(wod)上の150m x 150m検出領域で毎秒60フレーム以上動作し、以前公開された検出器よりも正確である。
RSNは2020年11月11日現在、LiDARをベースとした歩行者および車両検出のためのAPH/LEVEL 1測定値に基づいて、WODのリーダーボードで第1位にランクされている。
関連論文リスト
- Fully Sparse Long Range 3D Object Detection Using Range Experts and
Multimodal Virtual Points [4.914193018507932]
長距離での3D物体検出は、自動運転車の安全性と効率を確保するために不可欠である。
現在最先端のLiDARベースの手法のほとんどは、レンジセンサーの間隔によって制限されている。
我々は2つのLiDARベースの3D検出ネットワークを提案し、その1つは近距離オブジェクトを専門とし、もう1つは長距離3D検出を行う。
論文 参考訳(メタデータ) (2023-10-07T13:39:46Z) - An Empirical Analysis of Range for 3D Object Detection [70.54345282696138]
本稿では,長距離検出データセットArgoverse 2.0を用いた遠距離3次元検出の実験的検討を行った。
近接場LiDARの測定は、小さなボクセルによって密度が高く最適に符号化され、遠距離場の測定は疎く、大きなボクセルで符号化されている。
本研究では,33%の効率向上と3.2%のCDSの精度向上を図った。
論文 参考訳(メタデータ) (2023-08-08T05:29:26Z) - Super Sparse 3D Object Detection [48.684300007948906]
LiDARベースの3Dオブジェクト検出は、自動運転における長距離認識にますます貢献する。
高速な長距離検出を実現するため,まずフルスパース物体検出器FSDを提案する。
FSD++は、連続するフレーム間の点変化を示す残差点を生成する。
論文 参考訳(メタデータ) (2023-01-05T17:03:56Z) - PointPillars Backbone Type Selection For Fast and Accurate LiDAR Object
Detection [0.0]
深部畳み込みニューラルネットワークのバックボーン選択が検出精度と速度に及ぼす影響について実験を行った。
私たちはPointPillarsネットワークを選択しました。これは単純なアーキテクチャ、高速、モジュール性が特徴で、簡単に拡張できます。
論文 参考訳(メタデータ) (2022-09-30T06:18:14Z) - Fully Sparse 3D Object Detection [57.05834683261658]
長距離LiDARオブジェクト検出のためのフルスパース3Dオブジェクト検出器(FSD)を構築した。
FSDは一般的なスパース・ボクセル・エンコーダと新しいスパース・インスタンス認識(SIR)モジュール上に構築されている。
SIRは、ポイントをインスタンスにグループ化することで、以前のポイントベースのメソッドでの待ち行列クエリを避ける。
論文 参考訳(メタデータ) (2022-07-20T17:01:33Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - Sparse LiDAR and Stereo Fusion (SLS-Fusion) for Depth Estimationand 3D
Object Detection [3.5488685789514736]
SLS-Fusionは、深度推定のためにニューラルネットワークを介して4ビームLiDARとステレオカメラからデータを融合する新しいアプローチです。
4ビームのLiDARは64ビームのLiDARよりも安価であるため、この手法は低コストのセンサベース手法に分類される。
論文 参考訳(メタデータ) (2021-03-05T23:10:09Z) - LRPD: Long Range 3D Pedestrian Detection Leveraging Specific Strengths
of LiDAR and RGB [12.650574326251023]
KITTIベンチマークの現在の最先端技術は、歩行者の位置を長距離で検出する際の準最適化を行う。
本稿では,RGBの密度とLiDARの精度を利用して,長距離3次元歩行者検出(LRPD)を対象とするアプローチを提案する。
これは、現在の最先端技術と比較して、長い範囲でmAPが大幅に改善される。
論文 参考訳(メタデータ) (2020-06-17T09:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。