論文の概要: SparsePoint: Fully End-to-End Sparse 3D Object Detector
- arxiv url: http://arxiv.org/abs/2103.10042v1
- Date: Thu, 18 Mar 2021 06:36:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 14:02:03.474886
- Title: SparsePoint: Fully End-to-End Sparse 3D Object Detector
- Title(参考訳): SparsePoint:完全なエンドツーエンドのスパース3Dオブジェクト検出器
- Authors: Zili Liu, Guodong Xu, Honghui Yang, Haifeng Liu, Deng Cai
- Abstract要約: 3dオブジェクト検出のための最初のスパースメソッドであるsparsepointを提案する。
提案手法は, 3次元オブジェクトの潜在的位置を符号化するために, 学習可能な提案を多数採用する。
SparsePointは、ScanNetV2、SUN RGB-D、S3DIS、Matterport3Dを含む4つのパブリックデータセットに、新たな最先端技術を設定する。
- 参考スコア(独自算出の注目度): 34.076175597332394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detectors based on sparse object proposals have recently been proven
to be successful in the 2D domain, which makes it possible to establish a fully
end-to-end detector without time-consuming post-processing. This development is
also attractive for 3D object detectors. However, considering the remarkably
larger search space in the 3D domain, whether it is feasible to adopt the
sparse method in the 3D object detection setting is still an open question. In
this paper, we propose SparsePoint, the first sparse method for 3D object
detection. Our SparsePoint adopts a number of learnable proposals to encode
most likely potential positions of 3D objects and a foreground embedding to
encode shared semantic features of all objects. Besides, with the attention
module to provide object-level interaction for redundant proposal removal and
Hungarian algorithm to supply one-one label assignment, our method can produce
sparse and accurate predictions. SparsePoint sets a new state-of-the-art on
four public datasets, including ScanNetV2, SUN RGB-D, S3DIS, and Matterport3D.
Our code will be publicly available soon.
- Abstract(参考訳): スパースオブジェクトの提案に基づくオブジェクト検出器は、2dドメインで成功していることが最近証明されている。
この開発は、3dオブジェクト検出器にも魅力的だ。
しかし, 3d領域の検索空間が著しく大きいことを考えると, スパース法を3dオブジェクト検出設定で採用できるかどうかはまだ疑問の余地がある。
本稿では,3次元物体検出のための最初のスパース法であるスパースポイントを提案する。
私たちのsparsepointでは、3dオブジェクトの最も可能性の高い位置をエンコードするために多くの学習可能な提案を採用しています。
さらに、冗長な提案除去のためのオブジェクトレベルのインタラクションと、一対一のラベル割り当てを提供するハンガリーのアルゴリズムにより、本手法はスパースかつ正確な予測を行うことができる。
SparsePointは、ScanNetV2、SUN RGB-D、S3DIS、Matterport3Dを含む4つのパブリックデータセットに、新たな最先端技術を設定する。
私たちのコードはまもなく公開されます。
関連論文リスト
- General Geometry-aware Weakly Supervised 3D Object Detection [62.26729317523975]
RGB画像と関連する2Dボックスから3Dオブジェクト検出器を学習するための統合フレームワークを開発した。
KITTIとSUN-RGBDデータセットの実験により,本手法は驚くほど高品質な3次元境界ボックスを2次元アノテーションで生成することを示した。
論文 参考訳(メタデータ) (2024-07-18T17:52:08Z) - Reason3D: Searching and Reasoning 3D Segmentation via Large Language Model [108.35777542298224]
本稿では,包括的3次元理解のための新しい大規模言語モデルReason3Dを紹介する。
拡張シーン内の小さな物体を見つけるための階層型マスクデコーダを提案する。
大規模なScanNetとMatterport3Dデータセットにおいて、Reason3Dが顕著な結果が得られることを検証する。
論文 参考訳(メタデータ) (2024-05-27T17:59:41Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - CMR3D: Contextualized Multi-Stage Refinement for 3D Object Detection [57.44434974289945]
本稿では,3次元オブジェクト検出(CMR3D)フレームワークのためのコンテキスト型マルチステージリファインメントを提案する。
我々のフレームワークは3Dシーンを入力として取り、シーンの有用なコンテキスト情報を明示的に統合しようと試みている。
3Dオブジェクトの検出に加えて,3Dオブジェクトカウント問題に対するフレームワークの有効性について検討する。
論文 参考訳(メタデータ) (2022-09-13T05:26:09Z) - SparseDet: Towards End-to-End 3D Object Detection [12.3069609175534]
ポイントクラウドからエンドツーエンドの3Dオブジェクト検出のためのSparseDetを提案する。
新しい検出パラダイムとして、SparseDetは遅延候補を表現するための学習可能な提案の固定セットを維持している。
SparseDetはより効率的な34.5 FPSで実行しながら高い競合検出精度を達成する。
論文 参考訳(メタデータ) (2022-06-02T09:49:53Z) - FCAF3D: Fully Convolutional Anchor-Free 3D Object Detection [3.330229314824913]
FCAF3D - 完全畳み込み型アンカーフリー屋内3D物体検出法を提案する。
これは、点雲のボクセル表現を使用し、スパース畳み込みでボクセルを処理する、単純で効果的な方法である。
単一の完全な畳み込みフィードフォワードパスを通じて、最小限のランタイムで大規模シーンを処理できる。
論文 参考訳(メタデータ) (2021-12-01T07:28:52Z) - FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection [81.79171905308827]
3Dアノテーションを使わずに点雲中の車両を検出するためのフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
2Dバウンディングボックスとスパースポイントクラウドだけで、3D空間内のオブジェクトを正確に検出できます。
論文 参考訳(メタデータ) (2021-05-17T07:29:55Z) - Weakly Supervised 3D Object Detection from Point Clouds [27.70180601788613]
3Dオブジェクト検出は、特定のクラスに属するオブジェクトの3D境界ボックスを検出し、ローカライズすることを目的としている。
既存の3Dオブジェクト検出器は、トレーニング中にアノテーション付き3Dバウンディングボックスに依存している。
基礎となる真理3D境界ボックスを使わずに点雲からの3Dオブジェクト検出を弱教師付きで行うためのフレームワークであるVS3Dを提案する。
論文 参考訳(メタデータ) (2020-07-28T03:30:11Z) - SMOKE: Single-Stage Monocular 3D Object Detection via Keypoint
Estimation [3.1542695050861544]
3Dの向きとオブジェクトの変換を推定することは、インフラストラクチャレスの自律走行と運転に不可欠である。
SMOKEと呼ばれる新しい3次元オブジェクト検出手法を提案する。
構造的単純さにもかかわらず、提案するSMOKEネットワークは、KITTIデータセット上の既存のモノクル3D検出方法よりも優れている。
論文 参考訳(メタデータ) (2020-02-24T08:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。