論文の概要: Fast Hybrid Cascade for Voxel-based 3D Object Classification
- arxiv url: http://arxiv.org/abs/2011.04522v2
- Date: Mon, 11 Jan 2021 12:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 00:35:28.927289
- Title: Fast Hybrid Cascade for Voxel-based 3D Object Classification
- Title(参考訳): voxelに基づく3次元物体分類のための高速ハイブリッドカスケード
- Authors: Hui Cao, Jie Wang, Yuqi Liu, Siyu Zhang and Shen Cai
- Abstract要約: 本研究では,各ボクセルに符号付き距離値を与えることで,二項ボクセル表現と比較して約30%の精度向上が得られることを示す。
次に,Voxelをベースとした3次元オブジェクト分類のための高速完全連結・畳み込みハイブリッドカスケードネットワークを提案する。
- 参考スコア(独自算出の注目度): 9.253386496959747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Voxel-based 3D object classification has been frequently studied in recent
years. The previous methods often directly convert the classic 2D convolution
into a 3D form applied to an object with binary voxel representation. In this
paper, we investigate the reason why binary voxel representation is not very
suitable for 3D convolution and how to simultaneously improve the performance
both in accuracy and speed. We show that by giving each voxel a signed distance
value, the accuracy will gain about 30% promotion compared with binary voxel
representation using a two-layer fully connected network. We then propose a
fast fully connected and convolution hybrid cascade network for voxel-based 3D
object classification. This threestage cascade network can divide 3D models
into three categories: easy, moderate and hard. Consequently, the mean
inference time (0.3ms) can speedup about 5x and 2x compared with the
state-of-the-art point cloud and voxel based methods respectively, while
achieving the highest accuracy in the latter category of methods (92%).
Experiments with ModelNet andMNIST verify the performance of the proposed
hybrid cascade network.
- Abstract(参考訳): voxelベースの3dオブジェクト分類は近年頻繁に研究されている。
以前の方法は、古典的2d畳み込みをバイナリボクセル表現を持つオブジェクトに適用した3d形式に直接変換することが多い。
本稿では,2値ボクセル表現が3次元畳み込みにはあまり適さない理由と,精度と速度の両方で同時に性能を改善する方法について検討する。
各ボクセルに符号付き距離値を与えることで、2層完全接続ネットワークを用いたバイナリボクセル表現と比較して精度が約30%向上することを示す。
次に,voxelに基づく3次元オブジェクト分類のための高速完全連結・畳み込みハイブリッドカスケードネットワークを提案する。
この3段階のカスケードネットワークは、3Dモデルを3つのカテゴリに分割することができる。
その結果、平均推定時間(0.3ms)は、最先端の点雲とボクセルベースの手法と比較して約5倍と2倍のスピードアップが可能であり、後者の手法(92%)では高い精度を達成することができる。
ModelNetとMNISTによる実験は、提案したハイブリッドカスケードネットワークの性能を検証する。
関連論文リスト
- DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - VoxelNeXt: Fully Sparse VoxelNet for 3D Object Detection and Tracking [78.25819070166351]
完全スパース3次元物体検出のためのVoxelNextを提案する。
私たちの中核となる洞察は、手作りのプロキシに頼ることなく、スパースボクセル機能に基づいてオブジェクトを直接予測することです。
私たちの強力なスパース畳み込みネットワークVoxelNeXtは、voxelの機能を通して3Dオブジェクトを検出し、追跡します。
論文 参考訳(メタデータ) (2023-03-20T17:40:44Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - Focal Sparse Convolutional Networks for 3D Object Detection [121.45950754511021]
我々はスパースCNNの能力を高めるために2つの新しいモジュールを導入する。
焦点スパース・コンボリューション(Focals Conv)であり、焦点スパース・コンボリューションの多様変種である。
スパース・コンボリューションにおける空間的に学習可能な空間空間性は,高度な3次元物体検出に不可欠であることを示す。
論文 参考訳(メタデータ) (2022-04-26T17:34:10Z) - FCAF3D: Fully Convolutional Anchor-Free 3D Object Detection [3.330229314824913]
FCAF3D - 完全畳み込み型アンカーフリー屋内3D物体検出法を提案する。
これは、点雲のボクセル表現を使用し、スパース畳み込みでボクセルを処理する、単純で効果的な方法である。
単一の完全な畳み込みフィードフォワードパスを通じて、最小限のランタイムで大規模シーンを処理できる。
論文 参考訳(メタデータ) (2021-12-01T07:28:52Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - HyperCube: Implicit Field Representations of Voxelized 3D Models [18.868266675878996]
本稿では,3Dボクセルの直接処理を可能にするHyperCubeアーキテクチャを提案する。
ボクセル内から個々の3Dサンプルを処理するのではなく, 凸座標で表されるボクセル全体を入力できる。
論文 参考訳(メタデータ) (2021-10-12T06:56:48Z) - Learning Local Neighboring Structure for Robust 3D Shape Representation [143.15904669246697]
3Dメッシュの表現学習は多くのコンピュータビジョンやグラフィックスアプリケーションにおいて重要である。
局所構造認識型異方性畳み込み操作(LSA-Conv)を提案する。
本モデルでは,3次元形状復元において最先端の手法に比べて顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-04-21T13:40:03Z) - Anisotropic Convolutional Networks for 3D Semantic Scene Completion [24.9671648682339]
セマンティックシーン補完(SSC)は、単一の深さおよび/またはRGB画像からシーンの占有度とセマンティックラベルを同時に推測しようとする。
異方性畳み込みと呼ばれる新しいモジュールを提案する。
固定された3次元受容場に制限される標準的な3次元畳み込みとは対照的に、我々のモジュールは次元異方性ボクセルを賢明にモデル化することができる。
論文 参考訳(メタデータ) (2020-04-05T07:57:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。