論文の概要: FCAF3D: Fully Convolutional Anchor-Free 3D Object Detection
- arxiv url: http://arxiv.org/abs/2112.00322v1
- Date: Wed, 1 Dec 2021 07:28:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 14:35:02.977436
- Title: FCAF3D: Fully Convolutional Anchor-Free 3D Object Detection
- Title(参考訳): FCAF3D:完全畳み込みアンカーフリー3Dオブジェクト検出
- Authors: Danila Rukhovich, Anna Vorontsova, Anton Konushin
- Abstract要約: FCAF3D - 完全畳み込み型アンカーフリー屋内3D物体検出法を提案する。
これは、点雲のボクセル表現を使用し、スパース畳み込みでボクセルを処理する、単純で効果的な方法である。
単一の完全な畳み込みフィードフォワードパスを通じて、最小限のランタイムで大規模シーンを処理できる。
- 参考スコア(独自算出の注目度): 3.330229314824913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, promising applications in robotics and augmented reality have
attracted considerable attention to 3D object detection from point clouds. In
this paper, we present FCAF3D - a first-in-class fully convolutional
anchor-free indoor 3D object detection method. It is a simple yet effective
method that uses a voxel representation of a point cloud and processes voxels
with sparse convolutions. FCAF3D can handle large-scale scenes with minimal
runtime through a single fully convolutional feed-forward pass. Existing 3D
object detection methods make prior assumptions on the geometry of objects, and
we argue that it limits their generalization ability. To get rid of any prior
assumptions, we propose a novel parametrization of oriented bounding boxes that
allows obtaining better results in a purely data-driven way. The proposed
method achieves state-of-the-art 3D object detection results in terms of
mAP@0.5 on ScanNet V2 (+4.5), SUN RGB-D (+3.5), and S3DIS (+20.5) datasets. The
code and models are available at https://github.com/samsunglabs/fcaf3d.
- Abstract(参考訳): 近年、ロボティクスと拡張現実の有望な応用が、ポイントクラウドからの3dオブジェクト検出に多大な注目を集めている。
本稿では,一級完全畳み込み型アンカーレス屋内3次元物体検出法FCAF3Dを提案する。
点雲のボクセル表現を使用し、スパース畳み込みでボクセルを処理する、単純で効果的な方法である。
FCAF3Dは、単一の完全な畳み込みフィードフォワードパスによって、最小限のランタイムで大規模シーンを処理できる。
既存の3次元物体検出手法は,物体の形状について事前の仮定を行い,それらの一般化能力を制限していると論じる。
従来の仮定をなくすために、純粋にデータ駆動方式でより良い結果を得ることができる配向境界ボックスの新たなパラメトリゼーションを提案する。
提案手法は,ScanNet V2 (+4.5), SUN RGB-D (+3.5), S3DIS (+20.5)データセットのmAP@0.5を用いて,最先端の3Dオブジェクト検出結果を実現する。
コードとモデルはhttps://github.com/samsunglabs/fcaf3dで入手できる。
関連論文リスト
- DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - VoxelNeXt: Fully Sparse VoxelNet for 3D Object Detection and Tracking [78.25819070166351]
完全スパース3次元物体検出のためのVoxelNextを提案する。
私たちの中核となる洞察は、手作りのプロキシに頼ることなく、スパースボクセル機能に基づいてオブジェクトを直接予測することです。
私たちの強力なスパース畳み込みネットワークVoxelNeXtは、voxelの機能を通して3Dオブジェクトを検出し、追跡します。
論文 参考訳(メタデータ) (2023-03-20T17:40:44Z) - TR3D: Towards Real-Time Indoor 3D Object Detection [6.215404942415161]
TR3Dは、エンドツーエンドで訓練された完全畳み込み3Dオブジェクト検出モデルである。
ポイントクラウドとRGBの両方の入力を利用するため、我々は2Dと3Dの機能の早期融合を導入する。
TR3D+FFと呼ばれる初期の特徴融合モデルでは,SUN RGB-Dデータセット上で既存の3Dオブジェクト検出手法よりも優れている。
論文 参考訳(メタデータ) (2023-02-06T15:25:50Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection [81.79171905308827]
3Dアノテーションを使わずに点雲中の車両を検出するためのフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
2Dバウンディングボックスとスパースポイントクラウドだけで、3D空間内のオブジェクトを正確に検出できます。
論文 参考訳(メタデータ) (2021-05-17T07:29:55Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z) - SMOKE: Single-Stage Monocular 3D Object Detection via Keypoint
Estimation [3.1542695050861544]
3Dの向きとオブジェクトの変換を推定することは、インフラストラクチャレスの自律走行と運転に不可欠である。
SMOKEと呼ばれる新しい3次元オブジェクト検出手法を提案する。
構造的単純さにもかかわらず、提案するSMOKEネットワークは、KITTIデータセット上の既存のモノクル3D検出方法よりも優れている。
論文 参考訳(メタデータ) (2020-02-24T08:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。