論文の概要: Generative Sparse Detection Networks for 3D Single-shot Object Detection
- arxiv url: http://arxiv.org/abs/2006.12356v1
- Date: Mon, 22 Jun 2020 15:54:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 06:33:14.474377
- Title: Generative Sparse Detection Networks for 3D Single-shot Object Detection
- Title(参考訳): 3次元単発物体検出のための生成スパース検出ネットワーク
- Authors: JunYoung Gwak, Christopher Choy, Silvio Savarese
- Abstract要約: 3Dオブジェクト検出は、ロボット工学や拡張現実など多くの有望な分野に適用可能であるため、広く研究されている。
しかし、3Dデータのまばらな性質は、このタスクに固有の課題をもたらしている。
本稿では,完全畳み込み単一ショットスパース検出ネットワークであるGenerative Sparse Detection Network (GSDN)を提案する。
- 参考スコア(独自算出の注目度): 43.91336826079574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object detection has been widely studied due to its potential
applicability to many promising areas such as robotics and augmented reality.
Yet, the sparse nature of the 3D data poses unique challenges to this task.
Most notably, the observable surface of the 3D point clouds is disjoint from
the center of the instance to ground the bounding box prediction on. To this
end, we propose Generative Sparse Detection Network (GSDN), a
fully-convolutional single-shot sparse detection network that efficiently
generates the support for object proposals. The key component of our model is a
generative sparse tensor decoder, which uses a series of transposed
convolutions and pruning layers to expand the support of sparse tensors while
discarding unlikely object centers to maintain minimal runtime and memory
footprint. GSDN can process unprecedentedly large-scale inputs with a single
fully-convolutional feed-forward pass, thus does not require the heuristic
post-processing stage that stitches results from sliding windows as other
previous methods have. We validate our approach on three 3D indoor datasets
including the large-scale 3D indoor reconstruction dataset where our method
outperforms the state-of-the-art methods by a relative improvement of 7.14%
while being 3.78 times faster than the best prior work.
- Abstract(参考訳): 3Dオブジェクト検出は、ロボット工学や拡張現実など多くの有望な分野に適用可能であるため、広く研究されている。
しかし、3Dデータの細かな性質は、このタスクに固有の課題をもたらす。
最も注目すべきは、3dポイントの雲の観測可能な表面がインスタンスの中心から切り離され、バウンディングボックスの予測をグラウンドする。
そこで本研究では,オブジェクト提案のサポートを効率的に生成する,完全畳み込みシングルショットスパース検出ネットワークであるGenerative Sparse Detection Network (GSDN)を提案する。
私たちのモデルの主要なコンポーネントは生成型スパーステンソルデコーダで、一連の変換された畳み込みとプルーニング層を使用してスパーステンソルのサポートを拡大し、起こりそうにないオブジェクトセンターを捨てて、最小のランタイムとメモリフットプリントを維持する。
GSDNは、1つの完全な畳み込みフィードフォワードパスで前例のない大規模な入力を処理できるため、他の方法と同様にスライドウィンドウから結果を縫うヒューリスティックな後処理段階を必要としない。
本手法は,3次元屋内復元データセットを含む3つの3次元屋内データセットに対して,従来手法の3.78倍の高速化と7.14%の相対的改善で検証を行った。
関連論文リスト
- DM3D: Distortion-Minimized Weight Pruning for Lossless 3D Object Detection [42.07920565812081]
本稿では,3次元物体検出のための新しいトレーニング後の重み付け手法を提案する。
事前訓練されたモデルにおける冗長パラメータを決定し、局所性と信頼性の両方において最小限の歪みをもたらす。
本フレームワークは,ネットワーク出力の歪みを最小限に抑え,検出精度を最大に維持することを目的とする。
論文 参考訳(メタデータ) (2024-07-02T09:33:32Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - HEDNet: A Hierarchical Encoder-Decoder Network for 3D Object Detection
in Point Clouds [19.1921315424192]
ポイントクラウドにおける3Dオブジェクト検出は、自律運転システムにとって重要である。
3Dオブジェクト検出における主な課題は、3Dシーン内の点のスパース分布に起因する。
本稿では3次元オブジェクト検出のための階層型エンコーダデコーダネットワークであるHEDNetを提案する。
論文 参考訳(メタデータ) (2023-10-31T07:32:08Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z) - Exploring Deep 3D Spatial Encodings for Large-Scale 3D Scene
Understanding [19.134536179555102]
生の3次元点雲の空間的特徴を非方向性グラフモデルに符号化することで,CNNに基づくアプローチの限界を克服する代替手法を提案する。
提案手法は、訓練時間とモデル安定性を改善して、最先端の精度で達成し、さらなる研究の可能性を示す。
論文 参考訳(メタデータ) (2020-11-29T12:56:19Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - SMOKE: Single-Stage Monocular 3D Object Detection via Keypoint
Estimation [3.1542695050861544]
3Dの向きとオブジェクトの変換を推定することは、インフラストラクチャレスの自律走行と運転に不可欠である。
SMOKEと呼ばれる新しい3次元オブジェクト検出手法を提案する。
構造的単純さにもかかわらず、提案するSMOKEネットワークは、KITTIデータセット上の既存のモノクル3D検出方法よりも優れている。
論文 参考訳(メタデータ) (2020-02-24T08:15:36Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。