論文の概要: NeuTex: Neural Texture Mapping for Volumetric Neural Rendering
- arxiv url: http://arxiv.org/abs/2103.00762v1
- Date: Mon, 1 Mar 2021 05:34:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:39:51.110969
- Title: NeuTex: Neural Texture Mapping for Volumetric Neural Rendering
- Title(参考訳): NeuTex: ボリュームニューラルレンダリングのためのニューラルテクスチャマッピング
- Authors: Fanbo Xiang, Zexiang Xu, Milo\v{s} Ha\v{s}an, Yannick Hold-Geoffroy,
Kalyan Sunkavalli, Hao Su
- Abstract要約: 本稿では,ジオメトリ-連続3次元ボリューム-出現-連続2次元テクスチャマップとして表現-を明示的に切り離す手法を提案する。
我々は,この表現を多視点画像監視のみを用いて再構成し,高品質なレンダリング結果を生成することを実証した。
- 参考スコア(独自算出の注目度): 48.83181790635772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has demonstrated that volumetric scene representations combined
with differentiable volume rendering can enable photo-realistic rendering for
challenging scenes that mesh reconstruction fails on. However, these methods
entangle geometry and appearance in a "black-box" volume that cannot be edited.
Instead, we present an approach that explicitly disentangles
geometry--represented as a continuous 3D volume--from appearance--represented
as a continuous 2D texture map. We achieve this by introducing a 3D-to-2D
texture mapping (or surface parameterization) network into volumetric
representations. We constrain this texture mapping network using an additional
2D-to-3D inverse mapping network and a novel cycle consistency loss to make 3D
surface points map to 2D texture points that map back to the original 3D
points. We demonstrate that this representation can be reconstructed using only
multi-view image supervision and generates high-quality rendering results. More
importantly, by separating geometry and texture, we allow users to edit
appearance by simply editing 2D texture maps.
- Abstract(参考訳): 近年の研究では、ボリュームシーン表現と可変ボリュームレンダリングを組み合わせることで、メッシュ再構成が失敗する困難なシーンをリアルにレンダリングできることが示されている。
しかし、これらの方法は、編集できない「ブラックボックス」ボリュームにジオメトリと外観を絡めます。
代わりに,連続的な3次元ボリュームとして表現される幾何学を,連続的な2次元テクスチャマップとして表現するアプローチを提案する。
本研究では3次元から2次元のテクスチャマッピング(あるいは表面パラメータ化)ネットワークをボリューム表現に導入することでこれを実現する。
我々は,このテクスチャマッピングネットワークを,新たに2次元から3次元の逆マッピングネットワークと3次元表面点を元の3次元点にマッピングする新たなサイクル整合性損失を用いて制約する。
我々は,この表現を多視点画像監視のみを用いて再構成し,高品質なレンダリング結果を生成することを実証した。
さらに、幾何学とテクスチャを分離することで、2dテクスチャマップを編集するだけで外観を編集できる。
関連論文リスト
- TEGLO: High Fidelity Canonical Texture Mapping from Single-View Images [1.4502611532302039]
画像の単一ビューから3次元表現を学習するためのTEGLO(Textured EG3D-GLO)を提案する。
我々は, 条件付きニューラルレージアンスフィールド(NeRF)を, 明示的な3次元監視なしに訓練することで実現した。
このようなマッピングによって、共有トポロジのメッシュを必要としないテクスチャ転送やテクスチャ編集が可能であることを実証する。
論文 参考訳(メタデータ) (2023-03-24T01:52:03Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z) - Self-Supervised Geometry-Aware Encoder for Style-Based 3D GAN Inversion [115.82306502822412]
StyleGANは、画像インバージョンと潜時編集による2次元顔再構成とセマンティック編集において大きな進歩を遂げている。
対応する汎用的な3D GANインバージョンフレームワークがまだ欠けており、3D顔再構成とセマンティック編集の応用が制限されている。
本研究では,その3次元形状と詳細なテクスチャを忠実に復元するために,単一の顔画像から潜伏コードを予測する3D GAN逆変換の課題について検討する。
論文 参考訳(メタデータ) (2022-12-14T18:49:50Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Pixel-Aligned Non-parametric Hand Mesh Reconstruction [16.62199923065314]
非パラメトリックメッシュ再構成は、最近3Dの手と身体の応用において顕著な進歩を見せている。
本稿では,このマッピングをシンプルでコンパクトなアーキテクチャで構築し,活用することを目的とする。
3つのフェーズからなるハンドメッシュリカバリタスクのためのエンドツーエンドパイプラインを提案する。
論文 参考訳(メタデータ) (2022-10-17T15:53:18Z) - Pruning-based Topology Refinement of 3D Mesh using a 2D Alpha Mask [6.103988053817792]
本稿では,顔解析手法を用いて,任意の3次元メッシュのトポロジを洗練させる手法を提案する。
私たちのソリューションは、それぞれの顔を2次元のソフトマップとして描画する微分可能を利用しています。
我々のモジュールは3Dメッシュを生成するネットワークに非依存であるため、自己管理されたイメージベースの3D再構成パイプラインに簡単に接続することができる。
論文 参考訳(メタデータ) (2022-10-17T14:51:38Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z) - 3DBooSTeR: 3D Body Shape and Texture Recovery [76.91542440942189]
3DBooSTeRは、部分的な3Dスキャンからテクスチャ化された3Dボディメッシュを復元する新しい方法である。
提案手法は形状とテクスチャの完成を2つの逐次的なタスクに分解する。
論文 参考訳(メタデータ) (2020-10-23T21:07:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。