論文の概要: Texture Generation Using Dual-Domain Feature Flow with Multi-View
Hallucinations
- arxiv url: http://arxiv.org/abs/2203.06901v1
- Date: Mon, 14 Mar 2022 07:50:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 15:59:06.493405
- Title: Texture Generation Using Dual-Domain Feature Flow with Multi-View
Hallucinations
- Title(参考訳): マルチビュー幻覚を用いたデュアルドメイン特徴流を用いたテクスチャ生成
- Authors: Seunggyu Chang, Jungchan Cho, Songhwai Oh
- Abstract要約: 一つの画像からテクスチャマップを推定するための二重領域生成モデルを提案する。
提案モデルは,画像領域における多視点幻覚とテクスチャ領域における推定テクスチャマップを同時に生成する。
実験により、3次元アニメーションレンダリングに適用可能な直接レンダリング可能なテクスチャマップを推定するためのモデルの有用性が示された。
- 参考スコア(独自算出の注目度): 18.85247419126044
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a dual-domain generative model to estimate a texture map from a
single image for colorizing a 3D human model. When estimating a texture map, a
single image is insufficient as it reveals only one facet of a 3D object. To
provide sufficient information for estimating a complete texture map, the
proposed model simultaneously generates multi-view hallucinations in the image
domain and an estimated texture map in the texture domain. During the
generating process, each domain generator exchanges features to the other by a
flow-based local attention mechanism. In this manner, the proposed model can
estimate a texture map utilizing abundant multi-view image features from which
multiview hallucinations are generated. As a result, the estimated texture map
contains consistent colors and patterns over the entire region. Experiments
show the superiority of our model for estimating a directly render-able texture
map, which is applicable to 3D animation rendering. Furthermore, our model also
improves an overall generation quality in the image domain for pose and
viewpoint transfer tasks.
- Abstract(参考訳): 3次元人体モデルをカラー化するために,1枚の画像からテクスチャマップを推定する2領域生成モデルを提案する。
テクスチャマップを推定する際には、3Dオブジェクトの1つの面のみを明らかにするため、単一の画像が不十分である。
完全なテクスチャマップを推定するための十分な情報を提供するため、提案モデルは、画像領域におけるマルチビュー幻覚とテクスチャ領域における推定テクスチャマップを同時に生成する。
生成プロセスの間、各ドメインジェネレータはフローベースのローカルアテンションメカニズムによって機能を互いに交換する。
このようにして,提案モデルでは,多視点幻覚が生成される豊富な多視点画像特徴を利用したテクスチャマップを推定できる。
その結果、推定テクスチャマップは、地域全体に一貫した色とパターンを含んでいる。
実験では、3dアニメーションレンダリングに適用可能な直接レンダリング可能なテクスチャマップを推定するモデルが優れていることを示す。
さらに,提案モデルでは,ポーズおよび視点伝達タスクのための画像領域の全体的な生成品質も向上する。
関連論文リスト
- TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - TwinTex: Geometry-aware Texture Generation for Abstracted 3D
Architectural Models [13.248386665044087]
我々はTwinTexについて紹介する。TwinTexは写真にリアルなテクスチャを生成する最初の自動テクスチャマッピングフレームワークである。
提案手法は, 高品質なテクスチャマッピング手法を超越し, より少ない労力で, 熟練した生産水準に達する。
論文 参考訳(メタデータ) (2023-09-20T12:33:53Z) - Generating Texture for 3D Human Avatar from a Single Image using
Sampling and Refinement Networks [8.659903550327442]
幾何学情報を組み込んだ3次元アバターのテクスチャ合成法を提案する。
サンプルネットワークは、ソース画像の隠蔽領域を埋め、テクスチャをターゲット3Dメッシュの表面と整列させる。
与えられた画像の鮮明な詳細を維持するため、サンプリングされたテクスチャと精製されたテクスチャを混合して最終テクスチャマップを生成する。
論文 参考訳(メタデータ) (2023-05-01T16:44:02Z) - TMO: Textured Mesh Acquisition of Objects with a Mobile Device by using
Differentiable Rendering [54.35405028643051]
スマートフォン1台でテクスチャ化されたメッシュを野生で取得するパイプラインを新たに提案する。
提案手法ではまず,RGBD支援構造を動きから導入し,フィルタした深度マップを作成できる。
我々は,高品質なメッシュを実現するニューラル暗黙表面再構成法を採用する。
論文 参考訳(メタデータ) (2023-03-27T10:07:52Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - Fine Detailed Texture Learning for 3D Meshes with Generative Models [33.42114674602613]
本稿では,多視点画像と単視点画像の両方から高品質なテクスチャ3Dモデルを再構成する手法を提案する。
第1段階では正確な幾何学を学ぶことに集中し、第2段階では、生成的対向ネットワークを用いてテクスチャを学ぶことに集中する。
本手法は従来の手法に比べて優れた3次元テクスチャモデルを実現することを実証する。
論文 参考訳(メタデータ) (2022-03-17T14:50:52Z) - NeuTex: Neural Texture Mapping for Volumetric Neural Rendering [48.83181790635772]
本稿では,ジオメトリ-連続3次元ボリューム-出現-連続2次元テクスチャマップとして表現-を明示的に切り離す手法を提案する。
我々は,この表現を多視点画像監視のみを用いて再構成し,高品質なレンダリング結果を生成することを実証した。
論文 参考訳(メタデータ) (2021-03-01T05:34:51Z) - Real Time Incremental Foveal Texture Mapping for Autonomous Vehicles [11.702817783491616]
生成された詳細なマップは、さまざまなビジョンと計画アルゴリズムの仮想テストベッドとして機能します。
また、さまざまなビジョンおよび計画アルゴリズムの背景マップとしても機能します。
論文 参考訳(メタデータ) (2021-01-16T07:41:24Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z) - Vehicle Reconstruction and Texture Estimation Using Deep Implicit
Semantic Template Mapping [32.580904361799966]
車両の3次元形状と内在的なテクスチャを,非校正単分子入力から回収する有効なソリューションであるVERTEXを導入する。
グローバルな特徴とローカルな特徴を融合させることで、我々のアプローチは目に見える領域と見えない領域の両方で一貫した、詳細なテクスチャを生成することができる。
論文 参考訳(メタデータ) (2020-11-30T09:27:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。