論文の概要: TemporalUV: Capturing Loose Clothing with Temporally Coherent UV
Coordinates
- arxiv url: http://arxiv.org/abs/2204.03671v1
- Date: Thu, 7 Apr 2022 18:00:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-11 12:15:16.252513
- Title: TemporalUV: Capturing Loose Clothing with Temporally Coherent UV
Coordinates
- Title(参考訳): 仮設UV: 仮設UVコーディネートによるルース衣料の捕獲
- Authors: You Xie, Huiqi Mao, Angela Yao and Nils Thuerey
- Abstract要約: 本稿では,ゆるい衣服に対する時間的コヒーレントなUV座標を生成する新しい手法を提案する。
我々の手法は人体の輪郭に拘束されず、ゆるい衣服や髪を捕獲することができる。
- 参考スコア(独自算出の注目度): 37.58323494348772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel approach to generate temporally coherent UV coordinates
for loose clothing. Our method is not constrained by human body outlines and
can capture loose garments and hair. We implemented a differentiable pipeline
to learn UV mapping between a sequence of RGB inputs and textures via UV
coordinates. Instead of treating the UV coordinates of each frame separately,
our data generation approach connects all UV coordinates via feature matching
for temporal stability. Subsequently, a generative model is trained to balance
the spatial quality and temporal stability. It is driven by supervised and
unsupervised losses in both UV and image spaces. Our experiments show that the
trained models output high-quality UV coordinates and generalize to new poses.
Once a sequence of UV coordinates has been inferred by our model, it can be
used to flexibly synthesize new looks and modified visual styles. Compared to
existing methods, our approach reduces the computational workload to animate
new outfits by several orders of magnitude.
- Abstract(参考訳): ゆるい衣服の時間的コヒーレントなuv座標を生成する新しい手法を提案する。
我々の手法は人体の輪郭に拘束されず、ゆるい衣服や髪を捕獲することができる。
我々は、UV座標を用いてRGB入力のシーケンスとテクスチャ間のUVマッピングを学習するために、微分可能なパイプラインを実装した。
各フレームのUV座標を別々に扱う代わりに、我々のデータ生成アプローチは、時間的安定性のために特徴マッチングによってすべてのUV座標を接続する。
その後、空間的品質と時間的安定性のバランスをとるために生成モデルを訓練する。
紫外線と画像空間の両方の教師なしの損失によって駆動される。
実験では,訓練したモデルが高品質なuv座標を出力し,新しいポーズに一般化することを示した。
モデルによりUV座標の列が推定されると、新しい外観と修正された視覚スタイルを柔軟に合成することができる。
既存の手法と比較して,提案手法は計算負荷を減らし,新しい装束を桁違いにアニメーション化する。
関連論文リスト
- Nuvo: Neural UV Mapping for Unruly 3D Representations [61.87715912587394]
既存のUVマッピングアルゴリズムは、最先端の3D再構成と生成技術によって生成された幾何学で動作する。
本稿では,3次元再構成と生成技術により生成された幾何学的手法を用いたUVマッピング手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T18:58:38Z) - Texture Generation on 3D Meshes with Point-UV Diffusion [86.69672057856243]
本稿では, 粗い微細化パイプラインであるPoint-UV拡散モデルとUVマッピングを併用し, 高品質なテクスチャイメージをUV空間で生成する。
本手法は,任意の属のメッシュを処理し,多種多様で,幾何に適合し,高忠実度なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-21T06:20:54Z) - Normal-guided Garment UV Prediction for Human Re-texturing [45.710312986737975]
3次元再構成を行なわずに、人間の着飾った画像や動画を編集できることが示される。
当社のアプローチでは, 衣服の基本的な形状を自己監督的に捉えている。
提案手法は, 実データと合成データの両方において, 最先端のUVマップ推定手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-11T22:18:18Z) - xCloth: Extracting Template-free Textured 3D Clothes from a Monocular
Image [4.056667956036515]
テンプレートフリーなテクスチャ3次元衣料デジタル化のための新しいフレームワークを提案する。
具体的には、PeledHuman表現を拡張して、ピクセルアライメント、階層化深度、セマンティックマップを予測することを提案する。
3つの公開データセットを用いて高忠実度3次元衣料の再構築を行い,インターネット画像上での一般化を行った。
論文 参考訳(メタデータ) (2022-08-27T05:57:00Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z) - StyleUV: Diverse and High-fidelity UV Map Generative Model [24.982824840625216]
本稿では,高品質なUVマップを訓練に必要とせず,多種多様なリアルなUVマップを生成することを学習する新しいUVマップ生成モデルを提案する。
定量的および定性的な評価は,提案したテクスチャモデルが既存手法よりも多様性が高く,忠実度の高いテクスチャを生成することを示すものである。
論文 参考訳(メタデータ) (2020-11-25T17:19:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。