論文の概要: DISN: Deep Implicit Surface Network for High-quality Single-view 3D Reconstruction
- arxiv url: http://arxiv.org/abs/1905.10711v5
- Date: Mon, 25 Mar 2024 22:10:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 02:25:02.401167
- Title: DISN: Deep Implicit Surface Network for High-quality Single-view 3D Reconstruction
- Title(参考訳): DISN: 高品質の1次元3次元再構成のための深層インシシトサーフェスネットワーク
- Authors: Qiangeng Xu, Weiyue Wang, Duygu Ceylan, Radomir Mech, Ulrich Neumann,
- Abstract要約: シングルビュー画像から3次元形状を再構成することは、長年にわたる研究課題である。
2次元画像から高品質のディテールリッチな3Dメッシュを生成するディープインプリシト・サーフェス・ネットワークであるdisNを提案する。
我々の知る限りでは、DINは1枚の画像から3次元形状に存在する穴や細い構造などの細部を常にキャプチャする最初の方法である。
- 参考スコア(独自算出の注目度): 24.903382114775283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing 3D shapes from single-view images has been a long-standing research problem. In this paper, we present DISN, a Deep Implicit Surface Network which can generate a high-quality detail-rich 3D mesh from an 2D image by predicting the underlying signed distance fields. In addition to utilizing global image features, DISN predicts the projected location for each 3D point on the 2D image, and extracts local features from the image feature maps. Combining global and local features significantly improves the accuracy of the signed distance field prediction, especially for the detail-rich areas. To the best of our knowledge, DISN is the first method that constantly captures details such as holes and thin structures present in 3D shapes from single-view images. DISN achieves the state-of-the-art single-view reconstruction performance on a variety of shape categories reconstructed from both synthetic and real images. Code is available at https://github.com/xharlie/DISN The supplementary can be found at https://xharlie.github.io/images/neurips_2019_supp.pdf
- Abstract(参考訳): シングルビュー画像から3次元形状を再構成することは、長年にわたる研究課題である。
本稿では,2次元画像から高画質のディテールリッチ3Dメッシュを生成可能なディープインプリシトサーフェスネットワークであるdisNについて述べる。
グローバルな画像特徴の活用に加えて、disNは2D画像上の各3Dポイントの投影された位置を予測し、画像特徴マップから局所的な特徴を抽出する。
グローバルな特徴と局所的な特徴を組み合わせることで、特に詳細に富んだ領域において、符号付き距離場予測の精度が大幅に向上する。
我々の知る限りでは、DINは1枚の画像から3次元形状に存在する穴や細い構造などの細部を常にキャプチャする最初の方法である。
DISNは、合成画像と実画像の両方から再構成された様々な形状カテゴリに対して、最先端の単一視点再構成性能を実現する。
コードはhttps://github.com/xharlie/DISNで利用可能 追加情報はhttps://xharlie.github.io/images/neurips_2019_supp.pdfで見ることができる。
関連論文リスト
- Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - D-OccNet: Detailed 3D Reconstruction Using Cross-Domain Learning [0.0]
我々は,画像領域とポイント領域のクロスドメイン学習を活用し,占有ネットワークに関する研究を拡大する。
我々のネットワークであるDouble Occupancy Network(D-OccNet)は、3D再構成で捉えた視覚的品質と詳細という点でOccupancy Networksを上回っている。
論文 参考訳(メタデータ) (2021-04-28T16:00:54Z) - Bidirectional Projection Network for Cross Dimension Scene Understanding [69.29443390126805]
本稿では,2次元および3次元の連立推論のための縦方向投影網(BPNet)をエンドツーエンドに提示する。
emphBPM、補完的な2D、および3D情報は、複数のアーキテクチャレベルで相互に相互作用することができる。
我々のemphBPNetは2次元および3次元セマンティックセマンティックセグメンテーションのためのScanNetV2ベンチマークで最高性能を達成した。
論文 参考訳(メタデータ) (2021-03-26T08:31:39Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - D$^2$IM-Net: Learning Detail Disentangled Implicit Fields from Single
Images [6.121310352120004]
本稿では,入力画像から幾何学的詳細を復元する最初の1視点3次元再構成ネットワークを提案する。
私たちの重要なアイデアは、ネットワークを訓練して、2つの機能からなる詳細に区切られた再構築を学ぶことです。
論文 参考訳(メタデータ) (2020-12-11T21:42:52Z) - GRF: Learning a General Radiance Field for 3D Representation and
Rendering [4.709764624933227]
我々は、暗黙的に3Dオブジェクトとシーンを2D観察からのみ表現しレンダリングする、シンプルだが強力なニューラルネットワークを提案する。
ネットワークは、一般的な放射場として3Dジオメトリをモデル化し、カメラのポーズと固有の2D画像のセットを入力として取り込む。
提案手法は, 斬新なオブジェクト, 見えないカテゴリ, 現実のシーンに対して, 高品質で現実的な新しいビューを生成できる。
論文 参考訳(メタデータ) (2020-10-09T14:21:43Z) - Improved Modeling of 3D Shapes with Multi-view Depth Maps [48.8309897766904]
CNNを用いて3次元形状をモデル化するための汎用フレームワークを提案する。
オブジェクトの1つの深度画像だけで、3Dオブジェクトの高密度な多視点深度マップ表現を出力できる。
論文 参考訳(メタデータ) (2020-09-07T17:58:27Z) - Pix2Vox++: Multi-scale Context-aware 3D Object Reconstruction from
Single and Multiple Images [56.652027072552606]
Pix2Vox++という,単一ビューと複数ビューの3Dオブジェクト再構成のための新しいフレームワークを提案する。
良く設計されたエンコーダデコーダを用いて、各入力画像から粗い3Dボリュームを生成する。
次に、マルチスケールコンテキスト対応融合モジュールを導入し、全ての粗い3Dボリュームから異なる部分の高品質な再構成を適応的に選択し、融合した3Dボリュームを得る。
論文 参考訳(メタデータ) (2020-06-22T13:48:09Z) - 3D Human Mesh Regression with Dense Correspondence [95.92326689172877]
単一の2D画像から人体の3Dメッシュを推定することは、拡張現実や人間とロボットのインタラクションといった多くのアプリケーションにおいて重要なタスクである。
前者は畳み込みニューラルネットワーク(CNN)を用いて抽出した大域的画像特徴から3Dメッシュを再構成した。
本稿では,メッシュとUV空間の局所像特徴との密接な対応性を明確に確立する,DecoMRというモデルフリーな3次元メッシュ推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T08:50:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。