論文の概要: REC-MV: REconstructing 3D Dynamic Cloth from Monocular Videos
- arxiv url: http://arxiv.org/abs/2305.14236v2
- Date: Sat, 27 May 2023 17:01:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 23:41:30.949507
- Title: REC-MV: REconstructing 3D Dynamic Cloth from Monocular Videos
- Title(参考訳): REC-MV:モノクロ映像から3D動的衣服を再構築
- Authors: Lingteng Qiu, Guanying Chen, Jiapeng Zhou, Mutian Xu, Junle Wang and
Xiaoguang Han
- Abstract要約: モノクロ映像から開放された境界でダイナミックな3D衣料表面を再構築することは重要な問題である。
本稿では,暗黙的特徴曲線と暗黙的符号距離場を協調的に最適化する,REC-MVと呼ばれる新しい手法を提案する。
提案手法は既存の手法より優れ, 高品質な動的衣料表面を創出できる。
- 参考スコア(独自算出の注目度): 23.25620556096607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing dynamic 3D garment surfaces with open boundaries from
monocular videos is an important problem as it provides a practical and
low-cost solution for clothes digitization. Recent neural rendering methods
achieve high-quality dynamic clothed human reconstruction results from
monocular video, but these methods cannot separate the garment surface from the
body. Moreover, despite existing garment reconstruction methods based on
feature curve representation demonstrating impressive results for garment
reconstruction from a single image, they struggle to generate temporally
consistent surfaces for the video input. To address the above limitations, in
this paper, we formulate this task as an optimization problem of 3D garment
feature curves and surface reconstruction from monocular video. We introduce a
novel approach, called REC-MV, to jointly optimize the explicit feature curves
and the implicit signed distance field (SDF) of the garments. Then the open
garment meshes can be extracted via garment template registration in the
canonical space. Experiments on multiple casually captured datasets show that
our approach outperforms existing methods and can produce high-quality dynamic
garment surfaces. The source code is available at
https://github.com/GAP-LAB-CUHK-SZ/REC-MV.
- Abstract(参考訳): モノクロ映像から開放された境界で動的3D衣料表面を再構築することは、実用的で低コストな衣料デジタル化ソリューションを提供するため重要な問題である。
近年のニューラルレンダリング法は, モノクロ映像から高品質な動的布地を再現するが, 衣服表面を体から切り離すことはできない。
さらに, 特徴曲線表現に基づく既存の衣服再構築手法は, 単一画像からの衣服復元の印象的な結果を示すが, 映像入力に対して時間的に一貫した表面を生成するのに苦慮している。
本稿では,この課題を3次元衣料特徴曲線の最適化問題と単眼映像による表面再構成問題として定式化する。
衣服の明示的特徴曲線と暗黙的符号距離場(SDF)を協調的に最適化する,REC-MVと呼ばれる新しい手法を提案する。
そして、前記開衣メッシュを、前記正準空間における衣料テンプレート登録により抽出することができる。
複数のカジュアルにキャプチャされたデータセットの実験は、我々のアプローチが既存の手法より優れており、高品質な動的衣服表面を作り出すことができることを示している。
ソースコードはhttps://github.com/GAP-LAB-CUHK-SZ/REC-MVで入手できる。
関連論文リスト
- DressRecon: Freeform 4D Human Reconstruction from Monocular Video [64.61230035671885]
本稿では,モノクラービデオから時間一貫性のある人体モデルを再構築する手法を提案する。
非常にゆるい衣服やハンドヘルドオブジェクトのインタラクションに重点を置いています。
DressReconは、先行技術よりも忠実度の高い3D再構築を実現している。
論文 参考訳(メタデータ) (2024-09-30T17:59:15Z) - ReLoo: Reconstructing Humans Dressed in Loose Garments from Monocular Video in the Wild [33.7726643918619]
ReLooは、モノラルなインザワイルドビデオから、ゆるい服を着た人間の高品質な3Dモデルを再構築する。
まず、布を被った人間を神経内装と外装に分解する層状神経人間表現を構築した。
グローバルな最適化は、多層異なるボリュームレンダリングにより、人体と衣服の形状、外観、変形を共同で最適化する。
論文 参考訳(メタデータ) (2024-09-23T17:58:39Z) - Gaussian Garments: Reconstructing Simulation-Ready Clothing with Photorealistic Appearance from Multi-View Video [66.98046635045685]
マルチビュー映像からリアルなシミュレーション可能な衣服資産を再構築するための新しい手法を提案する。
本手法は,3次元メッシュとガウステクスチャを組み合わせた衣服を表現し,その色と高周波表面の細部をエンコードする。
この表現は、マルチビュービデオへの衣服のジオメトリの正確な登録を可能にし、照明効果からアルベドのテクスチャを遠ざけるのに役立つ。
論文 参考訳(メタデータ) (2024-09-12T16:26:47Z) - Shape of Motion: 4D Reconstruction from a Single Video [51.04575075620677]
本稿では,全列長3D動作を特徴とする汎用動的シーンを再構築する手法を提案する。
シーン動作をコンパクトなSE3モーションベースで表現することで,3次元動作の低次元構造を利用する。
本手法は,3D/2Dの長距離動き推定と動的シーンにおける新しいビュー合成の両面において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-07-18T17:59:08Z) - SVG: 3D Stereoscopic Video Generation via Denoising Frame Matrix [60.48666051245761]
本研究では,3次元立体映像生成のためのポーズフリーかつトレーニングフリーな手法を提案する。
提案手法は, 推定ビデオ深度を用いた立体視ベースライン上のカメラビューにモノクロ映像をワープする。
本研究では,映像の画質向上を図るために,非閉塞境界再注入方式を開発した。
論文 参考訳(メタデータ) (2024-06-29T08:33:55Z) - High-Quality Animatable Dynamic Garment Reconstruction from Monocular
Videos [51.8323369577494]
そこで本研究では,モノクロビデオから高品質なアニマタブルな動的衣服をスキャンデータに頼らずに回収する手法を提案する。
様々な不明瞭なポーズに対する合理的な変形を生成するために,学習可能な衣服変形ネットワークを提案する。
提案手法は,高品質な動的衣服をコヒーレントな表面形状で再構成し,見知らぬポーズで容易にアニメーションできることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:16:27Z) - PERGAMO: Personalized 3D Garments from Monocular Video [6.8338761008826445]
PERGAMOはモノクロ画像から3D衣服の変形可能なモデルを学ぶためのデータ駆動型アプローチである。
まず,1枚の画像から衣服の3次元形状を再構築する新しい手法を紹介し,それを用いて単眼ビデオから衣服のデータセットを構築する。
本手法は,実世界の動作にマッチする衣料アニメーションを作成でき,モーションキャプチャーデータセットから抽出した身体の動きを一般化できることを示す。
論文 参考訳(メタデータ) (2022-10-26T21:15:54Z) - NeuPhysics: Editable Neural Geometry and Physics from Monocular Videos [82.74918564737591]
本稿では,モノクラーRGBビデオ入力のみから動的シーンの3次元形状と物理パラメータを学習する手法を提案する。
実験により,提案手法は,競合するニューラルフィールドアプローチと比較して,動的シーンのメッシュとビデオの再構成に優れることを示した。
論文 参考訳(メタデータ) (2022-10-22T04:57:55Z) - MonoClothCap: Towards Temporally Coherent Clothing Capture from
Monocular RGB Video [10.679773937444445]
本稿では,モノクラーRGBビデオ入力から時間的コヒーレントな動的衣服の変形を捉える手法を提案する。
我々は,Tシャツ,ショートパンツ,ロングパンツの3種類の衣服の統計的変形モデルを構築した。
本手法は,モノクロ映像から身体と衣服の時間的コヒーレントな再構築を実現する。
論文 参考訳(メタデータ) (2020-09-22T17:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。