論文の概要: SS3D: Single Shot 3D Object Detector
- arxiv url: http://arxiv.org/abs/2004.14674v2
- Date: Sat, 2 May 2020 12:33:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 03:50:01.254432
- Title: SS3D: Single Shot 3D Object Detector
- Title(参考訳): SS3D:シングルショット3Dオブジェクト検出器
- Authors: Aniket Limaye, Manu Mathew, Soyeb Nagori, Pramod Kumar Swami,
Debapriya Maji, Kumar Desappan
- Abstract要約: シングルショット3Dオブジェクト検出(Single Shot 3D Object Detection、SS3D)は、シングルステージの3Dオブジェクト検出アルゴリズムである。
提案手法は, 直接, 統計的に計算された入力表現と単一ショット検出器を組み合わせる。
AVODやF-PointNetのような一般的な3Dオブジェクト検出器よりも優れた結果が得られる。
- 参考スコア(独自算出の注目度): 1.631115063641726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Single stage deep learning algorithm for 2D object detection was made popular
by Single Shot MultiBox Detector (SSD) and it was heavily adopted in several
embedded applications. PointPillars is a state of the art 3D object detection
algorithm that uses a Single Shot Detector adapted for 3D object detection. The
main downside of PointPillars is that it has a two stage approach with learned
input representation based on fully connected layers followed by the Single
Shot Detector for 3D detection. In this paper we present Single Shot 3D Object
Detection (SS3D) - a single stage 3D object detection algorithm which combines
straight forward, statistically computed input representation and a Single Shot
Detector (based on PointPillars). Computing the input representation is
straight forward, does not involve learning and does not have much
computational cost. We also extend our method to stereo input and show that,
aided by additional semantic segmentation input; our method produces similar
accuracy as state of the art stereo based detectors. Achieving the accuracy of
two stage detectors using a single stage approach is important as single stage
approaches are simpler to implement in embedded, real-time applications. With
LiDAR as well as stereo input, our method outperforms PointPillars. When using
LiDAR input, our input representation is able to improve the AP3D of Cars
objects in the moderate category from 74.99 to 76.84. When using stereo input,
our input representation is able to improve the AP3D of Cars objects in the
moderate category from 38.13 to 45.13. Our results are also better than other
popular 3D object detectors such as AVOD and F-PointNet.
- Abstract(参考訳): 2Dオブジェクト検出のためのシングルステージディープラーニングアルゴリズムは、Single Shot MultiBox Detector (SSD)によって普及し、いくつかの組み込みアプリケーションで広く採用された。
PointPillarsは、3Dオブジェクト検出に適応したシングルショット検出器を使用する、最先端の3Dオブジェクト検出アルゴリズムである。
ポイントピラーの主な欠点は、完全連結層に基づく学習入力表現と3d検出のためのシングルショット検出器を備えた2段階のアプローチである。
本稿では,Single Shot 3D Object Detection (SS3D) - 直接前方,統計的に計算された入力表現と(PointPillarsをベースとした)Single Shot Detectorを組み合わせた1段3Dオブジェクト検出アルゴリズムを提案する。
入力表現の計算は直接フォワードであり、学習を伴わず、計算コストもそれほど多くない。
また,本手法をステレオ入力に拡張し,さらにセマンティクスセグメンテーション入力を付加することで,アートステレオベース検出器の状態と同等の精度が得られることを示す。
単一ステージアプローチは組込みリアルタイムアプリケーションで実装が簡単であるため, 単一ステージアプローチによる2段階検出の精度向上が重要である。
LiDARとステレオ入力は、PointPillarsよりも優れています。
LiDAR入力を使用する場合、入力表現は中等級のカーズオブジェクトのAP3Dを74.99から76.84に改善することができる。
ステレオ入力を使用する場合、入力表現は中程度のカテゴリーの自動車オブジェクトのap3dを38.13から45.13に改善することができる。
AVODやF-PointNetのような一般的な3Dオブジェクト検出器よりも優れた結果が得られる。
関連論文リスト
- SeSame: Simple, Easy 3D Object Detection with Point-Wise Semantics [0.7373617024876725]
自律運転では、3Dオブジェクト検出は、経路計画や動き推定を含む下流タスクに対してより正確な情報を提供する。
本稿では,既存のLiDARのみに基づく3Dオブジェクト検出における意味情報の強化を目的としたSeSameを提案する。
KITTIオブジェクト検出ベンチマークにおいて,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-03-11T08:17:56Z) - FocalFormer3D : Focusing on Hard Instance for 3D Object Detection [97.56185033488168]
3次元物体検出における偽陰性(False negatives, FN)は、自動運転において潜在的に危険な状況を引き起こす可能性がある。
本研究では,マルチステージ方式でtextitFN を識別する汎用パイプラインである Hard Instance Probing (HIP) を提案する。
この手法をFocalFormer3Dとしてインスタンス化する。
論文 参考訳(メタデータ) (2023-08-08T20:06:12Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z) - IAFA: Instance-aware Feature Aggregation for 3D Object Detection from a
Single Image [37.83574424518901]
単一の画像からの3Dオブジェクト検出は、自動運転において重要なタスクです。
本稿では,3次元物体検出の精度向上のために有用な情報を集約するインスタンス認識手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T05:47:52Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。