論文の概要: A Fast Hybrid Cascade Network for Voxel-based 3D Object Classification
- arxiv url: http://arxiv.org/abs/2011.04522v3
- Date: Fri, 28 Apr 2023 02:30:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 18:07:32.263691
- Title: A Fast Hybrid Cascade Network for Voxel-based 3D Object Classification
- Title(参考訳): voxelに基づく3次元物体分類のための高速ハイブリッドカスケードネットワーク
- Authors: Ji Luo, Hui Cao, Jie Wang, Siyu Zhang and Shen Cai
- Abstract要約: ボクセルに基づく3次元オブジェクト分類のためのハイブリッドカスケードアーキテクチャを提案する。
提案手法では,精度と速度の両立が可能である。
- 参考スコア(独自算出の注目度): 10.019858113123822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Voxel-based 3D object classification has been thoroughly studied in recent
years. Most previous methods convert the classic 2D convolution into a 3D form
that will be further applied to objects with binary voxel representation for
classification. However, the binary voxel representation is not very effective
for 3D convolution in many cases. In this paper, we propose a hybrid cascade
architecture for voxel-based 3D object classification. It consists of three
stages composed of fully connected and convolutional layers, dealing with easy,
moderate, and hard 3D models respectively. Both accuracy and speed can be
balanced in our proposed method. By giving each voxel a signed distance value,
an obvious gain regarding the accuracy can be observed. Besides, the mean
inference time can be speeded up hugely compared with the state-of-the-art
point cloud and voxel based methods.
- Abstract(参考訳): 近年,Voxelベースの3Dオブジェクト分類が徹底的に研究されている。
以前の手法では、古典的2d畳み込みを3d形式に変換しており、分類のためにバイナリボクセル表現を持つオブジェクトにさらに適用される。
しかし、バイナリ・ボクセル表現は多くの場合3次元畳み込みにはあまり効果がない。
本稿では,voxelに基づく3次元オブジェクト分類のためのハイブリッドカスケードアーキテクチャを提案する。
完全に連結された層と畳み込み層からなる3つのステージで構成され、それぞれが容易で適度で硬い3Dモデルを扱う。
提案手法では,精度と速度の両立が可能である。
各ボクセルに符号付き距離値を与えることにより、精度に関する明らかな利得を観測することができる。
さらに、平均推論時間は最先端のポイントクラウドやvoxelベースのメソッドと比較して大幅に高速化できる。
関連論文リスト
- DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - VoxelNeXt: Fully Sparse VoxelNet for 3D Object Detection and Tracking [78.25819070166351]
完全スパース3次元物体検出のためのVoxelNextを提案する。
私たちの中核となる洞察は、手作りのプロキシに頼ることなく、スパースボクセル機能に基づいてオブジェクトを直接予測することです。
私たちの強力なスパース畳み込みネットワークVoxelNeXtは、voxelの機能を通して3Dオブジェクトを検出し、追跡します。
論文 参考訳(メタデータ) (2023-03-20T17:40:44Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - Focal Sparse Convolutional Networks for 3D Object Detection [121.45950754511021]
我々はスパースCNNの能力を高めるために2つの新しいモジュールを導入する。
焦点スパース・コンボリューション(Focals Conv)であり、焦点スパース・コンボリューションの多様変種である。
スパース・コンボリューションにおける空間的に学習可能な空間空間性は,高度な3次元物体検出に不可欠であることを示す。
論文 参考訳(メタデータ) (2022-04-26T17:34:10Z) - FCAF3D: Fully Convolutional Anchor-Free 3D Object Detection [3.330229314824913]
FCAF3D - 完全畳み込み型アンカーフリー屋内3D物体検出法を提案する。
これは、点雲のボクセル表現を使用し、スパース畳み込みでボクセルを処理する、単純で効果的な方法である。
単一の完全な畳み込みフィードフォワードパスを通じて、最小限のランタイムで大規模シーンを処理できる。
論文 参考訳(メタデータ) (2021-12-01T07:28:52Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - HyperCube: Implicit Field Representations of Voxelized 3D Models [18.868266675878996]
本稿では,3Dボクセルの直接処理を可能にするHyperCubeアーキテクチャを提案する。
ボクセル内から個々の3Dサンプルを処理するのではなく, 凸座標で表されるボクセル全体を入力できる。
論文 参考訳(メタデータ) (2021-10-12T06:56:48Z) - Learning Local Neighboring Structure for Robust 3D Shape Representation [143.15904669246697]
3Dメッシュの表現学習は多くのコンピュータビジョンやグラフィックスアプリケーションにおいて重要である。
局所構造認識型異方性畳み込み操作(LSA-Conv)を提案する。
本モデルでは,3次元形状復元において最先端の手法に比べて顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-04-21T13:40:03Z) - Anisotropic Convolutional Networks for 3D Semantic Scene Completion [24.9671648682339]
セマンティックシーン補完(SSC)は、単一の深さおよび/またはRGB画像からシーンの占有度とセマンティックラベルを同時に推測しようとする。
異方性畳み込みと呼ばれる新しいモジュールを提案する。
固定された3次元受容場に制限される標準的な3次元畳み込みとは対照的に、我々のモジュールは次元異方性ボクセルを賢明にモデル化することができる。
論文 参考訳(メタデータ) (2020-04-05T07:57:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。