論文の概要: SLIDE: Single Image 3D Photography with Soft Layering and Depth-aware
Inpainting
- arxiv url: http://arxiv.org/abs/2109.01068v1
- Date: Thu, 2 Sep 2021 16:37:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-03 13:46:43.333219
- Title: SLIDE: Single Image 3D Photography with Soft Layering and Depth-aware
Inpainting
- Title(参考訳): slide: ソフトレイヤーと奥行き認識による1枚の3d写真
- Authors: Varun Jampani, Huiwen Chang, Kyle Sargent, Abhishek Kar, Richard
Tucker, Michael Krainin, Dominik Kaeser, William T. Freeman, David Salesin,
Brian Curless, Ce Liu
- Abstract要約: シングルイメージの3D写真は、視聴者が新しい視点から静止画を見ることを可能にする。
最近のアプローチでは、単分子深度ネットワークと塗装ネットワークを組み合わせることで、説得力のある結果が得られる。
単一画像3D撮影のためのモジュール・統一システムであるSLIDEについて述べる。
- 参考スコア(独自算出の注目度): 54.419266357283966
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Single image 3D photography enables viewers to view a still image from novel
viewpoints. Recent approaches combine monocular depth networks with inpainting
networks to achieve compelling results. A drawback of these techniques is the
use of hard depth layering, making them unable to model intricate appearance
details such as thin hair-like structures. We present SLIDE, a modular and
unified system for single image 3D photography that uses a simple yet effective
soft layering strategy to better preserve appearance details in novel views. In
addition, we propose a novel depth-aware training strategy for our inpainting
module, better suited for the 3D photography task. The resulting SLIDE approach
is modular, enabling the use of other components such as segmentation and
matting for improved layering. At the same time, SLIDE uses an efficient
layered depth formulation that only requires a single forward pass through the
component networks to produce high quality 3D photos. Extensive experimental
analysis on three view-synthesis datasets, in combination with user studies on
in-the-wild image collections, demonstrate superior performance of our
technique in comparison to existing strong baselines while being conceptually
much simpler. Project page: https://varunjampani.github.io/slide
- Abstract(参考訳): 単一の3d写真では、新しい視点から静止画を見ることができる。
最近のアプローチでは、単眼深度ネットワークとインペインティングネットワークを組み合わせることで、説得力のある結果が得られる。
これらの技法の欠点は、硬い深さ層を用いることで、細い毛髪のような複雑な外観をモデル化できないことである。
本稿では,単一画像3d撮影のためのモジュール型統一システムであるslideについて紹介する。
さらに,3次元撮影作業に適した塗装モジュールのための新しい深度対応トレーニング戦略を提案する。
結果として生じるSLIDEアプローチはモジュール化されており、セグメンテーションやマッティングといった他のコンポーネントを階層化の改善に利用することができる。
同時に、SLIDEは、高品質な3D写真を作成するために、コンポーネントネットワークをただ1つの前方通過しか必要としない効率的な層状深度定式化を使用する。
3つの画像合成データセットの広範な実験分析と,既存の強力なベースラインと比較した場合,概念的にはるかにシンプルでありながら,本手法の優れた性能を示す。
プロジェクトページ: https://varunjampani.github.io/slide
関連論文リスト
- TeMO: Towards Text-Driven 3D Stylization for Multi-Object Meshes [67.5351491691866]
我々は,多目的3Dシーンを解析し,そのスタイルを編集する,TeMOと呼ばれる新しいフレームワークを提案する。
提案手法は,高品質なスタイリングコンテンツを合成し,多目的3Dメッシュで既存手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-12-07T12:10:05Z) - Holistic Inverse Rendering of Complex Facade via Aerial 3D Scanning [38.72679977945778]
我々は多視点空中画像を用いて、ニューラルサイン距離場(SDF)を用いたファサードの形状、照明、材料を再構成する。
本実験は, ファサード全体の逆レンダリング, 新規なビュー合成, シーン編集において, 最先端のベースラインと比較して, 手法の優れた品質を示すものである。
論文 参考訳(メタデータ) (2023-11-20T15:03:56Z) - TMO: Textured Mesh Acquisition of Objects with a Mobile Device by using
Differentiable Rendering [54.35405028643051]
スマートフォン1台でテクスチャ化されたメッシュを野生で取得するパイプラインを新たに提案する。
提案手法ではまず,RGBD支援構造を動きから導入し,フィルタした深度マップを作成できる。
我々は,高品質なメッシュを実現するニューラル暗黙表面再構成法を採用する。
論文 参考訳(メタデータ) (2023-03-27T10:07:52Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Single-View View Synthesis in the Wild with Learned Adaptive Multiplane
Images [15.614631883233898]
既存の手法では, 単分子深度推定と層状深度表現による色塗布による有望な結果が示されている。
マルチプレーン画像(MPI)表現に基づく新しい手法を提案する。
合成データと実データの両方の実験により、我々のトレーニングされたモデルは驚くほどうまく機能し、最先端の結果が得られます。
論文 参考訳(メタデータ) (2022-05-24T02:57:16Z) - Improved Modeling of 3D Shapes with Multi-view Depth Maps [48.8309897766904]
CNNを用いて3次元形状をモデル化するための汎用フレームワークを提案する。
オブジェクトの1つの深度画像だけで、3Dオブジェクトの高密度な多視点深度マップ表現を出力できる。
論文 参考訳(メタデータ) (2020-09-07T17:58:27Z) - 3D Photography using Context-aware Layered Depth Inpainting [50.66235795163143]
本稿では、1枚のRGB-D入力画像を3D写真に変換する方法を提案する。
学習に基づく着色モデルでは,新しい局所的な色と深度を隠蔽領域に合成する。
結果の3D写真は、モーションパララックスで効率よくレンダリングできる。
論文 参考訳(メタデータ) (2020-04-09T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。