論文の概要: Deep Octree-based CNNs with Output-Guided Skip Connections for 3D Shape
and Scene Completion
- arxiv url: http://arxiv.org/abs/2006.03762v1
- Date: Sat, 6 Jun 2020 02:51:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 22:00:08.424398
- Title: Deep Octree-based CNNs with Output-Guided Skip Connections for 3D Shape
and Scene Completion
- Title(参考訳): 3次元形状とシーンコンプリートのための出力誘導型スキップ接続を用いた深部オクターベースCNN
- Authors: Peng-Shuai Wang and Yang Liu and Xin Tong
- Abstract要約: 入力ノイズや不完全な形状やシーンを完了するための,単純かつ効果的な深層学習手法を提案する。
ネットワークはO-CNN(O-CNN)上に構築され,U-Netのような構造を持つ。
これらの単純な適応 -- 出力誘導スキップ接続と深いO-CNN -- により、我々のネットワークは3次元形状の完成とセマンティックシーンの計算において最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 21.59311861556396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Acquiring complete and clean 3D shape and scene data is challenging due to
geometric occlusion and insufficient views during 3D capturing. We present a
simple yet effective deep learning approach for completing the input noisy and
incomplete shapes or scenes. Our network is built upon the octree-based CNNs
(O-CNN) with U-Net like structures, which enjoys high computational and memory
efficiency and supports to construct a very deep network structure for 3D CNNs.
A novel output-guided skip-connection is introduced to the network structure
for better preserving the input geometry and learning geometry prior from data
effectively. We show that with these simple adaptions -- output-guided
skip-connection and deeper O-CNN (up to 70 layers), our network achieves
state-of-the-art results in 3D shape completion and semantic scene computation.
- Abstract(参考訳): 形状とシーンデータの完全かつクリーンな取得は、幾何学的閉塞と3D撮影時の視界不足により困難である。
入力ノイズや不完全な形状やシーンを完了するための,単純かつ効果的な深層学習手法を提案する。
我々のネットワークはO-CNN(O-CNN)とU-Netのような構造で構築されており、高い計算効率とメモリ効率を享受し、3次元CNNのための非常に深いネットワーク構造の構築を支援する。
データから入力幾何と学習幾何を効果的に保存するために、新しい出力誘導スキップ接続をネットワーク構造に導入する。
これらの単純な適応 -- 出力誘導型スキップ接続とO-CNN(70層まで)により、我々のネットワークは3次元形状の完成とセマンティックシーンの計算において最先端の結果を達成する。
関連論文リスト
- Maximizing Spatio-Temporal Entropy of Deep 3D CNNs for Efficient Video
Recognition [25.364148451584356]
3D畳み込みニューラルネットワーク(CNN)は、ビデオ認識において一般的な選択肢である。
我々は,新しい学習自由なニューラルアーキテクチャ探索手法を用いて,効率的な3次元CNNアーキテクチャを自動設計することを提案する。
Something-Something V1&V2 と Kinetics400 の実験は、E3D ファミリーが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-03-05T15:11:53Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Dual Octree Graph Networks for Learning Adaptive Volumetric Shape
Representations [21.59311861556396]
本手法は,3次元形状の体積場を,オクツリーによって構成された適応的特徴量で符号化する。
エンコーダ・デコーダネットワークは、オクツリーノードの二重グラフ上のグラフ畳み込みに基づいて、適応的な特徴量を学ぶように設計されている。
提案手法は, 形状詳細を効果的に符号化し, 高速な3次元形状復元を可能にし, 訓練カテゴリから3次元形状をモデル化するための優れた汎用性を示す。
論文 参考訳(メタデータ) (2022-05-05T17:56:34Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - Data Augmented 3D Semantic Scene Completion with 2D Segmentation Priors [1.0973642726108543]
本稿では,新しいマルチモーダル3DディープCNNであるSPAwNを紹介する。
この分野で重要な課題は、完全にラベル付けされた現実世界の3Dデータセットがないことである。
本稿では,マルチモーダルSCネットワークに適用可能な3次元データ拡張戦略を提案する。
論文 参考訳(メタデータ) (2021-11-26T04:08:34Z) - Interpolation-Aware Padding for 3D Sparse Convolutional Neural Networks [10.052144326400164]
スパースボクセルベースの3D CNNは、3D入力からスパース非空ボクセルを生成し、3D畳み込み操作のみを実行する。
空でないボクセルに隣接する空のボクセルをパッドし,それを3次元CNNに組み込む,シンプルで効果的なパディング方式を提案する。
ポイントワイズ機能が不可欠である細粒度3次元視覚タスクでは,ネットワークは既存のネットワークよりも高い予測精度を実現している。
論文 参考訳(メタデータ) (2021-08-16T07:00:42Z) - LatticeNet: Fast Spatio-Temporal Point Cloud Segmentation Using
Permutohedral Lattices [27.048998326468688]
深層畳み込みニューラルネットワーク(CNN)は、画像のセグメンテーションに際し、優れた性能を示している。
本稿では,3次元セマンティックセグメンテーションの新たなアプローチであるLatticeNetを提案する。
本稿では,本手法が最先端性能を実現する複数のデータセット上での3次元セグメント化の結果について述べる。
論文 参考訳(メタデータ) (2021-08-09T10:17:27Z) - Learning Local Neighboring Structure for Robust 3D Shape Representation [143.15904669246697]
3Dメッシュの表現学習は多くのコンピュータビジョンやグラフィックスアプリケーションにおいて重要である。
局所構造認識型異方性畳み込み操作(LSA-Conv)を提案する。
本モデルでは,3次元形状復元において最先端の手法に比べて顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-04-21T13:40:03Z) - 3D Sketch-aware Semantic Scene Completion via Semi-supervised Structure
Prior [50.73148041205675]
セマンティック・シーン・コンプリート(SSC)タスクの目標は、単一視点で観察することで、ボリューム占有率とシーン内のオブジェクトの意味ラベルの完全な3Dボクセル表現を同時に予測することである。
低解像度のボクセル表現で深度情報を埋め込む新しい幾何学的手法を提案する。
提案手法は,SSCフレームワークからの深度特徴学習よりも有効である。
論文 参考訳(メタデータ) (2020-03-31T09:33:46Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。