論文の概要: TemporalUV: Capturing Loose Clothing with Temporally Coherent UV
Coordinates
- arxiv url: http://arxiv.org/abs/2204.03671v1
- Date: Thu, 7 Apr 2022 18:00:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-11 12:15:16.252513
- Title: TemporalUV: Capturing Loose Clothing with Temporally Coherent UV
Coordinates
- Title(参考訳): 仮設UV: 仮設UVコーディネートによるルース衣料の捕獲
- Authors: You Xie, Huiqi Mao, Angela Yao and Nils Thuerey
- Abstract要約: 本稿では,ゆるい衣服に対する時間的コヒーレントなUV座標を生成する新しい手法を提案する。
我々の手法は人体の輪郭に拘束されず、ゆるい衣服や髪を捕獲することができる。
- 参考スコア(独自算出の注目度): 37.58323494348772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel approach to generate temporally coherent UV coordinates
for loose clothing. Our method is not constrained by human body outlines and
can capture loose garments and hair. We implemented a differentiable pipeline
to learn UV mapping between a sequence of RGB inputs and textures via UV
coordinates. Instead of treating the UV coordinates of each frame separately,
our data generation approach connects all UV coordinates via feature matching
for temporal stability. Subsequently, a generative model is trained to balance
the spatial quality and temporal stability. It is driven by supervised and
unsupervised losses in both UV and image spaces. Our experiments show that the
trained models output high-quality UV coordinates and generalize to new poses.
Once a sequence of UV coordinates has been inferred by our model, it can be
used to flexibly synthesize new looks and modified visual styles. Compared to
existing methods, our approach reduces the computational workload to animate
new outfits by several orders of magnitude.
- Abstract(参考訳): ゆるい衣服の時間的コヒーレントなuv座標を生成する新しい手法を提案する。
我々の手法は人体の輪郭に拘束されず、ゆるい衣服や髪を捕獲することができる。
我々は、UV座標を用いてRGB入力のシーケンスとテクスチャ間のUVマッピングを学習するために、微分可能なパイプラインを実装した。
各フレームのUV座標を別々に扱う代わりに、我々のデータ生成アプローチは、時間的安定性のために特徴マッチングによってすべてのUV座標を接続する。
その後、空間的品質と時間的安定性のバランスをとるために生成モデルを訓練する。
紫外線と画像空間の両方の教師なしの損失によって駆動される。
実験では,訓練したモデルが高品質なuv座標を出力し,新しいポーズに一般化することを示した。
モデルによりUV座標の列が推定されると、新しい外観と修正された視覚スタイルを柔軟に合成することができる。
既存の手法と比較して,提案手法は計算負荷を減らし,新しい装束を桁違いにアニメーション化する。
関連論文リスト
- UV-free Texture Generation with Denoising and Geodesic Heat Diffusions [50.55154348768031]
メッシュの標準的なUVベースの処理機構の最も顕著な課題は、シーム、無駄なUV空間、および表面上の様々な解像度である。
本稿では,3次元メッシュの表面上での操作に制約された拡散モデルを用いて,テクスチャを色分けした点雲色として表現することを提案する。
論文 参考訳(メタデータ) (2024-08-29T17:57:05Z) - Pattern Guided UV Recovery for Realistic Video Garment Texturing [32.759330693659514]
本稿では,UVのパターンに基づくアプローチと,キャプチャした実映像からシェーディングリカバリを行い,衣服のテクスチャを自動的に置き換える手法を提案する。
本稿では,UVマッピングのジャコビアンに新たな損失を生じさせ,折りたたみ領域と閉塞領域の境界付近の快適なシームを創出する。
本実験では, 衣類の折り畳みや重ね合わせを著しく保存できるため, テクスチャの質素な代替効果を示す。
論文 参考訳(メタデータ) (2024-07-14T09:47:37Z) - UVMap-ID: A Controllable and Personalized UV Map Generative Model [67.71022515856653]
制御可能でパーソナライズされたUVマップ生成モデルであるUVMap-IDを導入する。
従来の2次元の大規模学習法とは異なり,本研究では,事前学習したテキスト・画像拡散モデルの微調整を提案する。
定量的および定性的な解析は、制御可能でパーソナライズされたUVマップ生成における本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-04-22T20:30:45Z) - UV Gaussians: Joint Learning of Mesh Deformation and Gaussian Textures for Human Avatar Modeling [71.87807614875497]
メッシュ変形と2次元UV空間のガウステクスチャを共同学習することで3次元人体をモデル化するUVガウスアンを提案する。
我々は,多視点画像,走査モデル,パラメトリックモデル登録,およびそれに対応するテクスチャマップを含む,人間の動作の新たなデータセットを収集し,処理する。
論文 参考訳(メタデータ) (2024-03-18T09:03:56Z) - Nuvo: Neural UV Mapping for Unruly 3D Representations [61.87715912587394]
既存のUVマッピングアルゴリズムは、最先端の3D再構成と生成技術によって生成された幾何学で動作する。
本稿では,3次元再構成と生成技術により生成された幾何学的手法を用いたUVマッピング手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T18:58:38Z) - Texture Generation on 3D Meshes with Point-UV Diffusion [86.69672057856243]
本稿では, 粗い微細化パイプラインであるPoint-UV拡散モデルとUVマッピングを併用し, 高品質なテクスチャイメージをUV空間で生成する。
本手法は,任意の属のメッシュを処理し,多種多様で,幾何に適合し,高忠実度なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-21T06:20:54Z) - Self-Aligning Depth-regularized Radiance Fields for Asynchronous RGB-D Sequences [12.799443250845224]
タイムスタンプを$rm SE(3)$要素にマッピングする暗黙のネットワークである。
提案アルゴリズムは,(1)時間的関数フィッティング,(2)放射場ブートストレッピング,(3)結合ポーズ誤差補償,および放射場改良の3段階からなる。
また,ドローンによってキャプチャされた実世界の非同期RGB-Dシーケンスに対して,定性的に改善された結果を示す。
論文 参考訳(メタデータ) (2022-11-14T15:37:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。