論文の概要: D-OccNet: Detailed 3D Reconstruction Using Cross-Domain Learning
- arxiv url: http://arxiv.org/abs/2104.13854v1
- Date: Wed, 28 Apr 2021 16:00:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 15:24:24.691067
- Title: D-OccNet: Detailed 3D Reconstruction Using Cross-Domain Learning
- Title(参考訳): D-OccNet:クロスドメイン学習を用いた詳細な3次元再構成
- Authors: Minhaj Uddin Ansari, Talha Bilal, Naeem Akhter
- Abstract要約: 我々は,画像領域とポイント領域のクロスドメイン学習を活用し,占有ネットワークに関する研究を拡大する。
我々のネットワークであるDouble Occupancy Network(D-OccNet)は、3D再構成で捉えた視覚的品質と詳細という点でOccupancy Networksを上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning based 3D reconstruction of single view 2D image is becoming
increasingly popular due to their wide range of real-world applications, but
this task is inherently challenging because of the partial observability of an
object from a single perspective. Recently, state of the art probability based
Occupancy Networks reconstructed 3D surfaces from three different types of
input domains: single view 2D image, point cloud and voxel. In this study, we
extend the work on Occupancy Networks by exploiting cross-domain learning of
image and point cloud domains. Specifically, we first convert the single view
2D image into a simpler point cloud representation, and then reconstruct a 3D
surface from it. Our network, the Double Occupancy Network (D-OccNet)
outperforms Occupancy Networks in terms of visual quality and details captured
in the 3D reconstruction.
- Abstract(参考訳): 深層学習に基づく1つのビュー2d画像の3次元再構成は,実世界の応用範囲が広いため,ますます普及しつつあるが,単一視点からのオブジェクトの部分的可観測性から,この課題は本質的に困難である。
近年,技術確率に基づくOccupancy Networksは3種類の入力領域から,単一ビュー2D画像,点雲,ボクセルの3次元面を再構成した。
本研究では,画像領域とポイント領域のクロスドメイン学習を活用し,占有ネットワークに関する研究を拡大する。
具体的には、まず1つのビュー2D画像を単純な点雲表現に変換し、それから3次元表面を再構成する。
我々のネットワークであるDouble Occupancy Network(D-OccNet)は、3D再構成で捉えた視覚的品質と詳細という点でOccupancy Networksを上回っている。
関連論文リスト
- DI-Net : Decomposed Implicit Garment Transfer Network for Digital
Clothed 3D Human [75.45488434002898]
既存の2D仮想試行法は、各ピクセルの深さを知覚できないため、直接3Dに拡張することはできない。
本稿では,新たに試みられた3次元メッシュをシームレスに再構築可能な,分解型インプリシト衣服転送ネットワーク(DI-Net)を提案する。
論文 参考訳(メタデータ) (2023-11-28T14:28:41Z) - Mask3D: Pre-training 2D Vision Transformers by Learning Masked 3D Priors [29.419069066603438]
本研究では,既存の大規模RGB-Dデータを活用するMask3Dを提案する。
我々は,Mask3Dが強力な2D ViTバックボーンに3D先行情報を埋め込むのに特に有効であることを実証した。
論文 参考訳(メタデータ) (2023-02-28T16:45:21Z) - Voxel-based 3D Detection and Reconstruction of Multiple Objects from a
Single Image [22.037472446683765]
入力画像から3次元特徴持ち上げ演算子を用いて3次元シーン空間に整合した3次元ボクセル特徴の正規格子を学習する。
この3Dボクセルの特徴に基づき,新しいCenterNet-3D検出ヘッドは3D空間におけるキーポイント検出として3D検出を定式化する。
我々は、粗度ボキセル化や、新しい局所PCA-SDF形状表現を含む、効率的な粗度から細度の再構成モジュールを考案する。
論文 参考訳(メタデータ) (2021-11-04T18:30:37Z) - Bidirectional Projection Network for Cross Dimension Scene Understanding [69.29443390126805]
本稿では,2次元および3次元の連立推論のための縦方向投影網(BPNet)をエンドツーエンドに提示する。
emphBPM、補完的な2D、および3D情報は、複数のアーキテクチャレベルで相互に相互作用することができる。
我々のemphBPNetは2次元および3次元セマンティックセマンティックセグメンテーションのためのScanNetV2ベンチマークで最高性能を達成した。
論文 参考訳(メタデータ) (2021-03-26T08:31:39Z) - Learning Joint 2D-3D Representations for Depth Completion [90.62843376586216]
2Dおよび3Dの関節の特徴を抽出することを学ぶシンプルで効果的なニューラルネットワークブロックを設計します。
具体的には、画像画素に2D畳み込みと3D点に連続畳み込みを施した2つのドメイン固有のサブネットワークから構成される。
論文 参考訳(メタデータ) (2020-12-22T22:58:29Z) - ParaNet: Deep Regular Representation for 3D Point Clouds [62.81379889095186]
ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
論文 参考訳(メタデータ) (2020-12-05T13:19:55Z) - GRF: Learning a General Radiance Field for 3D Representation and
Rendering [4.709764624933227]
我々は、暗黙的に3Dオブジェクトとシーンを2D観察からのみ表現しレンダリングする、シンプルだが強力なニューラルネットワークを提案する。
ネットワークは、一般的な放射場として3Dジオメトリをモデル化し、カメラのポーズと固有の2D画像のセットを入力として取り込む。
提案手法は, 斬新なオブジェクト, 見えないカテゴリ, 現実のシーンに対して, 高品質で現実的な新しいビューを生成できる。
論文 参考訳(メタデータ) (2020-10-09T14:21:43Z) - Improved Modeling of 3D Shapes with Multi-view Depth Maps [48.8309897766904]
CNNを用いて3次元形状をモデル化するための汎用フレームワークを提案する。
オブジェクトの1つの深度画像だけで、3Dオブジェクトの高密度な多視点深度マップ表現を出力できる。
論文 参考訳(メタデータ) (2020-09-07T17:58:27Z) - From Image Collections to Point Clouds with Self-supervised Shape and
Pose Networks [53.71440550507745]
2次元画像から3Dモデルを再構成することは、コンピュータビジョンの基本的な問題の一つである。
本研究では,1枚の画像から3次元オブジェクトを再構成する深層学習手法を提案する。
我々は,3次元点雲の再構成と推定ネットワークの自己教師方式の両方を学習する。
論文 参考訳(メタデータ) (2020-05-05T04:25:16Z) - DISN: Deep Implicit Surface Network for High-quality Single-view 3D Reconstruction [24.903382114775283]
シングルビュー画像から3次元形状を再構成することは、長年にわたる研究課題である。
2次元画像から高品質のディテールリッチな3Dメッシュを生成するディープインプリシト・サーフェス・ネットワークであるdisNを提案する。
我々の知る限りでは、DINは1枚の画像から3次元形状に存在する穴や細い構造などの細部を常にキャプチャする最初の方法である。
論文 参考訳(メタデータ) (2019-05-26T01:58:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。