論文の概要: GraVoS: Gradient based Voxel Selection for 3D Detection
- arxiv url: http://arxiv.org/abs/2208.08780v1
- Date: Thu, 18 Aug 2022 11:29:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:47:55.327221
- Title: GraVoS: Gradient based Voxel Selection for 3D Detection
- Title(参考訳): GraVoS: 3D検出のためのグラディエントベースのVoxel選択
- Authors: Oren Shrout, Yizhak Ben-Shabat, Ayellet Tal
- Abstract要約: 大きな3Dシーンでの3Dオブジェクト検出は、スパースと不規則な3Dポイントの雲のために困難である。
我々は,要素(ボクセル)を付加するのではなく,要素(ボクセル)を除去することでシーンを変更することを提案する。
このアプローチでは、両方のタイプのデータセットの不均衡に対処する方法で、"意味のある"ボクセルを選択します。
- 参考スコア(独自算出の注目度): 20.11028799145883
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D object detection within large 3D scenes is challenging not only due to the
sparse and irregular 3D point clouds, but also due to the extreme
foreground-background imbalance in the scene and class imbalance. A common
approach is to add ground-truth objects from other scenes. Differently, we
propose to modify the scenes by removing elements (voxels), rather than adding
ones. Our approach selects the "meaningful" voxels, in a manner that addresses
both types dataset imbalance. The approach is general and can be applied to any
voxel-based detector, yet the meaningfulness of a voxel is network-dependent.
Our voxel selection is shown to improve the performance of several prominent 3D
detection methods.
- Abstract(参考訳): 大きな3dシーン内の3dオブジェクト検出は、スリムで不規則な3dポイント雲のためだけでなく、シーンの不均衡とクラス不均衡のため、困難である。
一般的なアプローチは、他のシーンから地上のオブジェクトを追加することである。
別の方法では、要素を追加するのではなく、要素(ボクセル)を削除することでシーンを変更することを提案します。
このアプローチでは、両方のタイプのデータセットの不均衡に対処する方法で、"意味のある"ボクセルを選択します。
このアプローチは一般的なものであり、任意のボクセルベースの検出器に適用できるが、ボクセルの有意義性はネットワーク依存である。
我々のボクセル選択は、いくつかの顕著な3次元検出法の性能を向上させることが示されている。
関連論文リスト
- VoxelNeXt: Fully Sparse VoxelNet for 3D Object Detection and Tracking [78.25819070166351]
完全スパース3次元物体検出のためのVoxelNextを提案する。
私たちの中核となる洞察は、手作りのプロキシに頼ることなく、スパースボクセル機能に基づいてオブジェクトを直接予測することです。
私たちの強力なスパース畳み込みネットワークVoxelNeXtは、voxelの機能を通して3Dオブジェクトを検出し、追跡します。
論文 参考訳(メタデータ) (2023-03-20T17:40:44Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - SparseDet: Towards End-to-End 3D Object Detection [12.3069609175534]
ポイントクラウドからエンドツーエンドの3Dオブジェクト検出のためのSparseDetを提案する。
新しい検出パラダイムとして、SparseDetは遅延候補を表現するための学習可能な提案の固定セットを維持している。
SparseDetはより効率的な34.5 FPSで実行しながら高い競合検出精度を達成する。
論文 参考訳(メタデータ) (2022-06-02T09:49:53Z) - Point2Seq: Detecting 3D Objects as Sequences [58.63662049729309]
我々は、ポイントクラウドから3次元オブジェクトを検出するためのシンプルで効果的なフレームワーク、Point2Seqを提案する。
我々は,各3Dオブジェクトを単語列とみなし,その3Dオブジェクト検出タスクを,自動回帰的に3Dシーンからの単語の復号化として再構成する。
論文 参考訳(メタデータ) (2022-03-25T00:20:31Z) - FCAF3D: Fully Convolutional Anchor-Free 3D Object Detection [3.330229314824913]
FCAF3D - 完全畳み込み型アンカーフリー屋内3D物体検出法を提案する。
これは、点雲のボクセル表現を使用し、スパース畳み込みでボクセルを処理する、単純で効果的な方法である。
単一の完全な畳み込みフィードフォワードパスを通じて、最小限のランタイムで大規模シーンを処理できる。
論文 参考訳(メタデータ) (2021-12-01T07:28:52Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z) - OCM3D: Object-Centric Monocular 3D Object Detection [35.804542148335706]
モノクロ3次元物体検出のための新しい物体中心ボクセル表現を提案する。
具体的には、各オブジェクトの提案に基づいてボクセルを構築し、それらのサイズは点の3次元空間分布によって適応的に決定される。
本手法は、最先端の手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2021-04-13T09:15:40Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。