論文の概要: Canonical Voting: Towards Robust Oriented Bounding Box Detection in 3D
Scenes
- arxiv url: http://arxiv.org/abs/2011.12001v3
- Date: Wed, 9 Mar 2022 08:18:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:27:58.634896
- Title: Canonical Voting: Towards Robust Oriented Bounding Box Detection in 3D
Scenes
- Title(参考訳): canonical voting: 3dシーンにおけるロバスト指向のバウンディングボックス検出に向けて
- Authors: Yang You, Zelin Ye, Yujing Lou, Chengkun Li, Yong-Lu Li, Lizhuang Ma,
Weiming Wang, Cewu Lu
- Abstract要約: 現在の手法は、追加のマルチ層-パーセプトロンネットワークでオブジェクト中心とボックス配向への直接オフセットを遅らせる。
本研究では, 直接オフセットをLCC(Local Canonical Coordinates), ボックススケール, ボックス配向に分解する。
本モデルは,ScanNet,SceneNN,SUN RGB-Dの3つの標準実世界のベンチマークにおいて,最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 59.66142536660518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object detection has attracted much attention thanks to the advances in
sensors and deep learning methods for point clouds. Current state-of-the-art
methods like VoteNet regress direct offset towards object centers and box
orientations with an additional Multi-Layer-Perceptron network. Both their
offset and orientation predictions are not accurate due to the fundamental
difficulty in rotation classification. In the work, we disentangle the direct
offset into Local Canonical Coordinates (LCC), box scales and box orientations.
Only LCC and box scales are regressed, while box orientations are generated by
a canonical voting scheme. Finally, an LCC-aware back-projection checking
algorithm iteratively cuts out bounding boxes from the generated vote maps,
with the elimination of false positives. Our model achieves state-of-the-art
performance on three standard real-world benchmarks: ScanNet, SceneNN and SUN
RGB-D. Our code is available on https://github.com/qq456cvb/CanonicalVoting.
- Abstract(参考訳): 3dオブジェクト検出は、センサーの進歩とポイントクラウドのディープラーニング手法のおかげで、多くの注目を集めている。
votenet regressのような最先端のメソッドは、追加のマルチレイヤ・パーセプトロンネットワークを使用して、オブジェクトセンタやボックスオリエンテーションに直接オフセットする。
それらのオフセットと向きの予測は、回転分類の基本的な難しさから正確ではない。
本研究では, 直接オフセットをLCC(Local Canonical Coordinates), ボックススケール, ボックス配向に分解する。
LCCとボックススケールのみが回帰され、ボックスオリエンテーションは標準投票方式によって生成される。
最後に、LCC対応のバックプロジェクションチェックアルゴリズムは、生成した投票マップからバウンディングボックスを反復的にカットし、偽陽性を除去する。
本モデルは,ScanNet,SceneNN,SUN RGB-Dの3つの標準実世界のベンチマークにおいて,最先端の性能を実現する。
私たちのコードはhttps://github.com/qq456cvb/CanonicalVotingで利用可能です。
関連論文リスト
- GLACE: Global Local Accelerated Coordinate Encoding [66.87005863868181]
シーン座標回帰法は小規模なシーンでは有効であるが、大規模シーンでは重大な課題に直面している。
本研究では,事前学習したグローバルおよびローカルのエンコーディングを統合したGLACEを提案する。
提案手法は,低マップサイズモデルを用いて,大規模シーンにおける最先端結果を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:59:50Z) - CascadeV-Det: Cascade Point Voting for 3D Object Detection [10.714006902287904]
アンカーレス物体検出器は、アンカーの余分な後処理を必要とせず、ポイントベースの予測を行うのに非常に効率的である。
2Dグリッドとは異なり、これらの検出器で使用される3Dポイントは、しばしば地上の真理の中心から遠く離れている。
本稿では,高品質な3Dオブジェクト検出を実現するカスケード投票(CascadeV)戦略を提案する。
論文 参考訳(メタデータ) (2024-01-15T05:10:27Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z) - Pyramid Correlation based Deep Hough Voting for Visual Object Tracking [16.080776515556686]
我々は、ピラミド相関に基づくDeep Hough Voting(PCDHV用ショート)という、投票に基づく分類専用追跡アルゴリズムを提案する。
具体的には、埋め込み特徴に微細な局所構造と大域的空間的文脈を持たせるために、ピラミド相関モジュールを革新的に構築する。
精巧に設計されたDeep Hough Votingモジュールがさらに引き継ぎ、ピクセルの長距離依存を隅々まで知覚する。
論文 参考訳(メタデータ) (2021-10-15T10:37:00Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - CenterNet3D: An Anchor Free Object Detector for Point Cloud [14.506796247331584]
本研究では,アンカーフリーのCenterNet3Dネットワークを提案し,アンカーなしで3次元物体検出を行う。
中心点に基づいて,アンカー不要な3次元物体検出を行うCenterNet3Dネットワークを提案する。
提案手法は,最先端のアンカーベースの一段法よりも優れ,二段法に匹敵する性能を有する。
論文 参考訳(メタデータ) (2020-07-13T13:53:56Z) - Center-based 3D Object Detection and Tracking [8.72305226979945]
3次元オブジェクトは通常、ポイントクラウド内の3Dボックスとして表現される。
この表現は、よく研究されたイメージベースの2Dバウンディングボックス検出を模倣するが、さらなる課題が伴う。
本稿では,3Dオブジェクトをポイントとして表現し,検出し,追跡する手法を提案する。
われわれのフレームワークであるCenterPointは、まずキーポイント検出器を用いて物体の中心を検知し、3次元サイズ、3次元方向、速度など他の属性に回帰する。
その結果、検出と追跡のアルゴリズムは単純で効率的で効果的である。
論文 参考訳(メタデータ) (2020-06-19T17:59:39Z) - Robust 6D Object Pose Estimation by Learning RGB-D Features [59.580366107770764]
本稿では、この局所最適問題を解くために、回転回帰のための離散連続的な新しい定式化を提案する。
我々はSO(3)の回転アンカーを均一にサンプリングし、各アンカーから目標への制約付き偏差を予測し、最適な予測を選択するための不確実性スコアを出力する。
LINEMOD と YCB-Video の2つのベンチマーク実験により,提案手法が最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-02-29T06:24:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。