論文の概要: Interpolation-Aware Padding for 3D Sparse Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2108.06925v1
- Date: Mon, 16 Aug 2021 07:00:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 15:03:35.548569
- Title: Interpolation-Aware Padding for 3D Sparse Convolutional Neural Networks
- Title(参考訳): 3次元スパース畳み込みニューラルネットワークのための補間アウェアパディング
- Authors: Yu-Qi Yang, Peng-Shuai Wang, Yang Liu
- Abstract要約: スパースボクセルベースの3D CNNは、3D入力からスパース非空ボクセルを生成し、3D畳み込み操作のみを実行する。
空でないボクセルに隣接する空のボクセルをパッドし,それを3次元CNNに組み込む,シンプルで効果的なパディング方式を提案する。
ポイントワイズ機能が不可欠である細粒度3次元視覚タスクでは,ネットワークは既存のネットワークよりも高い予測精度を実現している。
- 参考スコア(独自算出の注目度): 10.052144326400164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse voxel-based 3D convolutional neural networks (CNNs) are widely used
for various 3D vision tasks. Sparse voxel-based 3D CNNs create sparse non-empty
voxels from the 3D input and perform 3D convolution operations on them only. We
propose a simple yet effective padding scheme --- interpolation-aware padding
to pad a few empty voxels adjacent to the non-empty voxels and involve them in
the 3D CNN computation so that all neighboring voxels exist when computing
point-wise features via the trilinear interpolation. For fine-grained 3D vision
tasks where point-wise features are essential, like semantic segmentation and
3D detection, our network achieves higher prediction accuracy than the existing
networks using the nearest neighbor interpolation or the normalized trilinear
interpolation with the zero-padding or the octree-padding scheme. Through
extensive comparisons on various 3D segmentation and detection tasks, we
demonstrate the superiority of 3D sparse CNNs with our padding scheme in
conjunction with feature interpolation.
- Abstract(参考訳): スパースボクセルベースの3D畳み込みニューラルネットワーク(CNN)は、様々な3D視覚タスクに広く利用されている。
スパースボクセルベースの3D CNNは、3D入力からスパース非空ボクセルを生成し、3D畳み込み操作のみを実行する。
本稿では,空でないボクセルに隣接した空のボクセルをパッドして3次元CNN計算に巻き込み,三角補間によるポイントワイドな特徴を計算する際に,近隣のボクセルがすべて存在するように,簡易で効果的なパディング方式を提案する。
セマンティックセグメンテーションや3次元検出といったポイントワイドな特徴が不可欠である細粒度3次元視覚タスクでは、近接補間やゼロパディングやオクツリーパディング方式による正規化トリ線形補間を用いて既存のネットワークよりも高い予測精度を実現する。
様々な3次元分割と検出タスクの広範囲な比較を通じて,特徴補間と合わせてパディング方式による3次元スパースCNNの優位性を実証した。
関連論文リスト
- SeMLaPS: Real-time Semantic Mapping with Latent Prior Networks and
Quasi-Planar Segmentation [53.83313235792596]
本稿では,RGB-Dシーケンスからのリアルタイム意味マッピングのための新しい手法を提案する。
2DニューラルネットワークとSLAMシステムに基づく3Dネットワークと3D占有マッピングを組み合わせる。
本システムは,2D-3Dネットワークベースシステムにおいて,最先端のセマンティックマッピング品質を実現する。
論文 参考訳(メタデータ) (2023-06-28T22:36:44Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - From Multi-View to Hollow-3D: Hallucinated Hollow-3D R-CNN for 3D Object
Detection [101.20784125067559]
本稿では,3次元物体検出の問題に対処するため,Halucinated Hollow-3D R-CNNという新しいアーキテクチャを提案する。
本稿では,まず,視点ビューと鳥眼ビューに点雲を逐次投影することで,多視点特徴を抽出する。
3Dオブジェクトは、新しい階層型Voxel RoIプール操作でボックスリファインメントモジュールを介して検出される。
論文 参考訳(メタデータ) (2021-07-30T02:00:06Z) - HVPR: Hybrid Voxel-Point Representation for Single-stage 3D Object
Detection [39.64891219500416]
3Dオブジェクト検出手法は、シーン内の3Dオブジェクトを表現するために、ボクセルベースまたはポイントベースの特徴を利用する。
本稿では,voxelベースとポイントベースの両方の特徴を有する,新しい単段3次元検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-02T06:34:49Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - Exploring Deep 3D Spatial Encodings for Large-Scale 3D Scene
Understanding [19.134536179555102]
生の3次元点雲の空間的特徴を非方向性グラフモデルに符号化することで,CNNに基づくアプローチの限界を克服する代替手法を提案する。
提案手法は、訓練時間とモデル安定性を改善して、最先端の精度で達成し、さらなる研究の可能性を示す。
論文 参考訳(メタデータ) (2020-11-29T12:56:19Z) - Learning Local Neighboring Structure for Robust 3D Shape Representation [143.15904669246697]
3Dメッシュの表現学習は多くのコンピュータビジョンやグラフィックスアプリケーションにおいて重要である。
局所構造認識型異方性畳み込み操作(LSA-Conv)を提案する。
本モデルでは,3次元形状復元において最先端の手法に比べて顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-04-21T13:40:03Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z) - Pointwise Attention-Based Atrous Convolutional Neural Networks [15.499267533387039]
多数の点を効率的に扱うために,注目度に基づくアトラス畳み込みニューラルネットワークアーキテクチャを提案する。
提案モデルは,3次元セマンティックセグメンテーションタスクにおいて,最も重要な2つの3Dポイントクラウドデータセット上で評価されている。
精度の面では最先端モデルと比較して妥当な性能を達成し、パラメータの数ははるかに少ない。
論文 参考訳(メタデータ) (2019-12-27T13:12:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。