論文の概要: Texture Generation Using Dual-Domain Feature Flow with Multi-View
Hallucinations
- arxiv url: http://arxiv.org/abs/2203.06901v1
- Date: Mon, 14 Mar 2022 07:50:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 15:59:06.493405
- Title: Texture Generation Using Dual-Domain Feature Flow with Multi-View
Hallucinations
- Title(参考訳): マルチビュー幻覚を用いたデュアルドメイン特徴流を用いたテクスチャ生成
- Authors: Seunggyu Chang, Jungchan Cho, Songhwai Oh
- Abstract要約: 一つの画像からテクスチャマップを推定するための二重領域生成モデルを提案する。
提案モデルは,画像領域における多視点幻覚とテクスチャ領域における推定テクスチャマップを同時に生成する。
実験により、3次元アニメーションレンダリングに適用可能な直接レンダリング可能なテクスチャマップを推定するためのモデルの有用性が示された。
- 参考スコア(独自算出の注目度): 18.85247419126044
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a dual-domain generative model to estimate a texture map from a
single image for colorizing a 3D human model. When estimating a texture map, a
single image is insufficient as it reveals only one facet of a 3D object. To
provide sufficient information for estimating a complete texture map, the
proposed model simultaneously generates multi-view hallucinations in the image
domain and an estimated texture map in the texture domain. During the
generating process, each domain generator exchanges features to the other by a
flow-based local attention mechanism. In this manner, the proposed model can
estimate a texture map utilizing abundant multi-view image features from which
multiview hallucinations are generated. As a result, the estimated texture map
contains consistent colors and patterns over the entire region. Experiments
show the superiority of our model for estimating a directly render-able texture
map, which is applicable to 3D animation rendering. Furthermore, our model also
improves an overall generation quality in the image domain for pose and
viewpoint transfer tasks.
- Abstract(参考訳): 3次元人体モデルをカラー化するために,1枚の画像からテクスチャマップを推定する2領域生成モデルを提案する。
テクスチャマップを推定する際には、3Dオブジェクトの1つの面のみを明らかにするため、単一の画像が不十分である。
完全なテクスチャマップを推定するための十分な情報を提供するため、提案モデルは、画像領域におけるマルチビュー幻覚とテクスチャ領域における推定テクスチャマップを同時に生成する。
生成プロセスの間、各ドメインジェネレータはフローベースのローカルアテンションメカニズムによって機能を互いに交換する。
このようにして,提案モデルでは,多視点幻覚が生成される豊富な多視点画像特徴を利用したテクスチャマップを推定できる。
その結果、推定テクスチャマップは、地域全体に一貫した色とパターンを含んでいる。
実験では、3dアニメーションレンダリングに適用可能な直接レンダリング可能なテクスチャマップを推定するモデルが優れていることを示す。
さらに,提案モデルでは,ポーズおよび視点伝達タスクのための画像領域の全体的な生成品質も向上する。
関連論文リスト
- TEXGen: a Generative Diffusion Model for Mesh Textures [63.43159148394021]
我々は、UVテクスチャ空間自体における学習の根本的な問題に焦点を当てる。
本稿では,点クラウド上にアテンション層を持つUVマップ上の畳み込みをインターリーブするスケーラブルなネットワークアーキテクチャを提案する。
テキストプロンプトとシングルビュー画像によって導かれるUVテクスチャマップを生成する7億のパラメータ拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-11-22T05:22:11Z) - TexGen: Text-Guided 3D Texture Generation with Multi-view Sampling and Resampling [37.67373829836975]
テクスチャ生成のための新しい多視点サンプリングおよび再サンプリングフレームワークであるTexGenを提案する。
提案手法は,高精細度3次元オブジェクトに対して,高精細度で優れたテクスチャ品質を実現する。
また,テクスチャ生成技術は,テクスチャ編集にも適用可能である。
論文 参考訳(メタデータ) (2024-08-02T14:24:40Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - UVMap-ID: A Controllable and Personalized UV Map Generative Model [67.71022515856653]
制御可能でパーソナライズされたUVマップ生成モデルであるUVMap-IDを導入する。
従来の2次元の大規模学習法とは異なり,本研究では,事前学習したテキスト・画像拡散モデルの微調整を提案する。
定量的および定性的な解析は、制御可能でパーソナライズされたUVマップ生成における本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-04-22T20:30:45Z) - ViewDiff: 3D-Consistent Image Generation with Text-to-Image Models [65.22994156658918]
実世界のデータから1つの認知過程において多視点画像を生成することを学習する手法を提案する。
我々は、任意の視点でより多くの3D一貫性のある画像をレンダリングする自己回帰生成を設計する。
論文 参考訳(メタデータ) (2024-03-04T07:57:05Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - TwinTex: Geometry-aware Texture Generation for Abstracted 3D
Architectural Models [13.248386665044087]
我々はTwinTexについて紹介する。TwinTexは写真にリアルなテクスチャを生成する最初の自動テクスチャマッピングフレームワークである。
提案手法は, 高品質なテクスチャマッピング手法を超越し, より少ない労力で, 熟練した生産水準に達する。
論文 参考訳(メタデータ) (2023-09-20T12:33:53Z) - Fine Detailed Texture Learning for 3D Meshes with Generative Models [33.42114674602613]
本稿では,多視点画像と単視点画像の両方から高品質なテクスチャ3Dモデルを再構成する手法を提案する。
第1段階では正確な幾何学を学ぶことに集中し、第2段階では、生成的対向ネットワークを用いてテクスチャを学ぶことに集中する。
本手法は従来の手法に比べて優れた3次元テクスチャモデルを実現することを実証する。
論文 参考訳(メタデータ) (2022-03-17T14:50:52Z) - Real Time Incremental Foveal Texture Mapping for Autonomous Vehicles [11.702817783491616]
生成された詳細なマップは、さまざまなビジョンと計画アルゴリズムの仮想テストベッドとして機能します。
また、さまざまなビジョンおよび計画アルゴリズムの背景マップとしても機能します。
論文 参考訳(メタデータ) (2021-01-16T07:41:24Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。