論文の概要: TemporalUV: Capturing Loose Clothing with Temporally Coherent UV
Coordinates
- arxiv url: http://arxiv.org/abs/2204.03671v1
- Date: Thu, 7 Apr 2022 18:00:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-11 12:15:16.252513
- Title: TemporalUV: Capturing Loose Clothing with Temporally Coherent UV
Coordinates
- Title(参考訳): 仮設UV: 仮設UVコーディネートによるルース衣料の捕獲
- Authors: You Xie, Huiqi Mao, Angela Yao and Nils Thuerey
- Abstract要約: 本稿では,ゆるい衣服に対する時間的コヒーレントなUV座標を生成する新しい手法を提案する。
我々の手法は人体の輪郭に拘束されず、ゆるい衣服や髪を捕獲することができる。
- 参考スコア(独自算出の注目度): 37.58323494348772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel approach to generate temporally coherent UV coordinates
for loose clothing. Our method is not constrained by human body outlines and
can capture loose garments and hair. We implemented a differentiable pipeline
to learn UV mapping between a sequence of RGB inputs and textures via UV
coordinates. Instead of treating the UV coordinates of each frame separately,
our data generation approach connects all UV coordinates via feature matching
for temporal stability. Subsequently, a generative model is trained to balance
the spatial quality and temporal stability. It is driven by supervised and
unsupervised losses in both UV and image spaces. Our experiments show that the
trained models output high-quality UV coordinates and generalize to new poses.
Once a sequence of UV coordinates has been inferred by our model, it can be
used to flexibly synthesize new looks and modified visual styles. Compared to
existing methods, our approach reduces the computational workload to animate
new outfits by several orders of magnitude.
- Abstract(参考訳): ゆるい衣服の時間的コヒーレントなuv座標を生成する新しい手法を提案する。
我々の手法は人体の輪郭に拘束されず、ゆるい衣服や髪を捕獲することができる。
我々は、UV座標を用いてRGB入力のシーケンスとテクスチャ間のUVマッピングを学習するために、微分可能なパイプラインを実装した。
各フレームのUV座標を別々に扱う代わりに、我々のデータ生成アプローチは、時間的安定性のために特徴マッチングによってすべてのUV座標を接続する。
その後、空間的品質と時間的安定性のバランスをとるために生成モデルを訓練する。
紫外線と画像空間の両方の教師なしの損失によって駆動される。
実験では,訓練したモデルが高品質なuv座標を出力し,新しいポーズに一般化することを示した。
モデルによりUV座標の列が推定されると、新しい外観と修正された視覚スタイルを柔軟に合成することができる。
既存の手法と比較して,提案手法は計算負荷を減らし,新しい装束を桁違いにアニメーション化する。
関連論文リスト
- Human Pose-Constrained UV Map Estimation [21.917582794820095]
UVマップ推定は、人間の姿勢や活動の詳細な分析にコンピュータビジョンで用いられる。
本稿では,2次元人物のポーズを画素間割り当てプロセスに統合したPC-CSE(Pose-Constrained Continuous Surface Embeddings)を提案する。
論文 参考訳(メタデータ) (2025-01-15T14:12:55Z) - UV-Attack: Physical-World Adversarial Attacks for Person Detection via Dynamic-NeRF-based UV Mapping [27.142039594420293]
人検知器に対する敵の攻撃は 人間の動きの柔軟性によって 成功率の低下に苦しんだ
UV-Attackは、広範囲で目立たない人間の行動であっても高い成功率を達成する、画期的なアプローチである。
論文 参考訳(メタデータ) (2025-01-10T08:33:31Z) - UV-free Texture Generation with Denoising and Geodesic Heat Diffusions [50.55154348768031]
メッシュの標準的なUVベースの処理機構の最も顕著な課題は、シーム、無駄なUV空間、および表面上の様々な解像度である。
本稿では,3次元メッシュの表面上での操作に制約された拡散モデルを用いて,テクスチャを色分けした点雲色として表現することを提案する。
論文 参考訳(メタデータ) (2024-08-29T17:57:05Z) - Pattern Guided UV Recovery for Realistic Video Garment Texturing [32.759330693659514]
本稿では,UVのパターンに基づくアプローチと,キャプチャした実映像からシェーディングリカバリを行い,衣服のテクスチャを自動的に置き換える手法を提案する。
本稿では,UVマッピングのジャコビアンに新たな損失を生じさせ,折りたたみ領域と閉塞領域の境界付近の快適なシームを創出する。
本実験では, 衣類の折り畳みや重ね合わせを著しく保存できるため, テクスチャの質素な代替効果を示す。
論文 参考訳(メタデータ) (2024-07-14T09:47:37Z) - UVMap-ID: A Controllable and Personalized UV Map Generative Model [67.71022515856653]
制御可能でパーソナライズされたUVマップ生成モデルであるUVMap-IDを導入する。
従来の2次元の大規模学習法とは異なり,本研究では,事前学習したテキスト・画像拡散モデルの微調整を提案する。
定量的および定性的な解析は、制御可能でパーソナライズされたUVマップ生成における本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-04-22T20:30:45Z) - UV Gaussians: Joint Learning of Mesh Deformation and Gaussian Textures for Human Avatar Modeling [71.87807614875497]
メッシュ変形と2次元UV空間のガウステクスチャを共同学習することで3次元人体をモデル化するUVガウスアンを提案する。
我々は,多視点画像,走査モデル,パラメトリックモデル登録,およびそれに対応するテクスチャマップを含む,人間の動作の新たなデータセットを収集し,処理する。
論文 参考訳(メタデータ) (2024-03-18T09:03:56Z) - Nuvo: Neural UV Mapping for Unruly 3D Representations [61.87715912587394]
既存のUVマッピングアルゴリズムは、最先端の3D再構成と生成技術によって生成された幾何学で動作する。
本稿では,3次元再構成と生成技術により生成された幾何学的手法を用いたUVマッピング手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T18:58:38Z) - Texture Generation on 3D Meshes with Point-UV Diffusion [86.69672057856243]
本稿では, 粗い微細化パイプラインであるPoint-UV拡散モデルとUVマッピングを併用し, 高品質なテクスチャイメージをUV空間で生成する。
本手法は,任意の属のメッシュを処理し,多種多様で,幾何に適合し,高忠実度なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-21T06:20:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。