論文の概要: Embracing Single Stride 3D Object Detector with Sparse Transformer
- arxiv url: http://arxiv.org/abs/2112.06375v1
- Date: Mon, 13 Dec 2021 02:12:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 17:08:25.548348
- Title: Embracing Single Stride 3D Object Detector with Sparse Transformer
- Title(参考訳): スパーストランスフォーマーを用いたsingle stride 3d object detector
- Authors: Lue Fan, Ziqi Pang, Tianyuan Zhang, Yu-Xiong Wang, Hang Zhao, Feng
Wang, Naiyan Wang, Zhaoxiang Zhang
- Abstract要約: 自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
- 参考スコア(独自算出の注目度): 63.179720817019096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In LiDAR-based 3D object detection for autonomous driving, the ratio of the
object size to input scene size is significantly smaller compared to 2D
detection cases. Overlooking this difference, many 3D detectors directly follow
the common practice of 2D detectors, which downsample the feature maps even
after quantizing the point clouds. In this paper, we start by rethinking how
such multi-stride stereotype affects the LiDAR-based 3D object detectors. Our
experiments point out that the downsampling operations bring few advantages,
and lead to inevitable information loss. To remedy this issue, we propose
Single-stride Sparse Transformer (SST) to maintain the original resolution from
the beginning to the end of the network. Armed with transformers, our method
addresses the problem of insufficient receptive field in single-stride
architectures. It also cooperates well with the sparsity of point clouds and
naturally avoids expensive computation. Eventually, our SST achieves
state-of-the-art results on the large scale Waymo Open Dataset. It is worth
mentioning that our method can achieve exciting performance (83.8 LEVEL 1 AP on
validation split) on small object (pedestrian) detection due to the
characteristic of single stride. Codes will be released at
https://github.com/TuSimple/SST
- Abstract(参考訳): lidarを用いた自律走行用3次元物体検出では,物体サイズと入力シーンサイズとの比は2次元検出例に比べて有意に小さい。
この違いを見渡すと、多くの3D検出器は2D検出器の一般的な慣習に従っている。
本稿では,このマルチストライドステレオタイプがLiDARベースの3Dオブジェクト検出器に与える影響を再考することから始める。
我々の実験は、ダウンサンプリング操作は少ない利点をもたらし、避けられない情報損失につながることを指摘している。
この問題に対処するため,ネットワークの開始から終了までの解像度を維持するために,sst(single-stride sparse transformer)を提案する。
トランスフォーマーを装備し,シングルストライドアーキテクチャにおける受容場不足の問題に対処した。
また、点雲の広がりによく協力し、自然に高価な計算を避ける。
最終的に、sstは大規模なwaymo open datasetで最先端の結果を達成します。
提案手法は, 単ストライドの特性により, 小物体(歩行者)検出におけるエキサイティングな性能(検証分割時83.8 LEVEL 1 AP)を達成できることは注目に値する。
Codesはhttps://github.com/TuSimple/SSTでリリースされる
関連論文リスト
- 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - Exploiting More Information in Sparse Point Cloud for 3D Single Object
Tracking [9.693724357115762]
3Dオブジェクトトラッキングは、3Dコンピュータビジョンにおける重要なタスクである。
点雲の空間性は、類似性を計算し、対象を見つけるのを難しくする。
本稿では3次元オブジェクト追跡のためのスパース・トゥ・デンス・トランスフォーマー・ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-02T13:38:30Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z) - Delving into Localization Errors for Monocular 3D Object Detection [85.77319416168362]
単眼画像から3Dバウンディングボックスを推定することは、自動運転に不可欠な要素です。
本研究では, 各サブタスクがもたらす影響を定量化し, 局所化誤差を求めることが, モノクロ3次元検出の抑制に欠かせない要因である。
論文 参考訳(メタデータ) (2021-03-30T10:38:01Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - Generative Sparse Detection Networks for 3D Single-shot Object Detection [43.91336826079574]
3Dオブジェクト検出は、ロボット工学や拡張現実など多くの有望な分野に適用可能であるため、広く研究されている。
しかし、3Dデータのまばらな性質は、このタスクに固有の課題をもたらしている。
本稿では,完全畳み込み単一ショットスパース検出ネットワークであるGenerative Sparse Detection Network (GSDN)を提案する。
論文 参考訳(メタデータ) (2020-06-22T15:54:24Z) - Boundary-Aware Dense Feature Indicator for Single-Stage 3D Object
Detection from Point Clouds [32.916690488130506]
本稿では,3次元検出器が境界を意識して点雲の最も密集した領域に焦点を合わせるのを支援する普遍モジュールを提案する。
KITTIデータセットの実験により、DENFIはベースライン単段検出器の性能を著しく改善することが示された。
論文 参考訳(メタデータ) (2020-04-01T01:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。