論文の概要: TexMesh: Reconstructing Detailed Human Texture and Geometry from RGB-D
Video
- arxiv url: http://arxiv.org/abs/2008.00158v3
- Date: Mon, 21 Sep 2020 03:14:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 00:47:00.437155
- Title: TexMesh: Reconstructing Detailed Human Texture and Geometry from RGB-D
Video
- Title(参考訳): TexMesh:RGB-Dビデオから詳細な人間のテクスチャと幾何学を再構築
- Authors: Tiancheng Zhi, Christoph Lassner, Tony Tung, Carsten Stoll, Srinivasa
G. Narasimhan and Minh Vo
- Abstract要約: TexMeshは、RGB-Dビデオから高解像度のフルボディテクスチャで詳細な人間のメッシュを再構築する新しいアプローチである。
実際に、私たちは自己適応のための短いサンプルシーケンスでモデルをトレーニングし、その後インタラクティブなフレームレートでモデルを実行します。
- 参考スコア(独自算出の注目度): 37.33902000401107
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present TexMesh, a novel approach to reconstruct detailed human meshes
with high-resolution full-body texture from RGB-D video. TexMesh enables high
quality free-viewpoint rendering of humans. Given the RGB frames, the captured
environment map, and the coarse per-frame human mesh from RGB-D tracking, our
method reconstructs spatiotemporally consistent and detailed per-frame meshes
along with a high-resolution albedo texture. By using the incident illumination
we are able to accurately estimate local surface geometry and albedo, which
allows us to further use photometric constraints to adapt a synthetically
trained model to real-world sequences in a self-supervised manner for detailed
surface geometry and high-resolution texture estimation. In practice, we train
our models on a short example sequence for self-adaptation and the model runs
at interactive framerate afterwards. We validate TexMesh on synthetic and
real-world data, and show it outperforms the state of art quantitatively and
qualitatively.
- Abstract(参考訳): 我々は、RGB-Dビデオから高解像度フルボディテクスチャで詳細なメッシュを再構築する新しいアプローチであるTexMeshを提案する。
TexMeshは、人間の高品質な自由視点レンダリングを可能にする。
RGB-D追跡から得られたRGBフレーム, 捕捉された環境マップ, および粗いフレーム毎の人的メッシュを考慮し, 高分解能なアルベドテクスチャとともに, 時空間整合性と詳細なフレーム毎のメッシュを再構成する。
インシデント照明を用いて局所表面形状とアルベドを正確に推定することができ、さらに光度制約を用いて合成訓練されたモデルを実世界の配列に適応させ、詳細な表面形状と高分解能テクスチャ推定を行うことができる。
実際に、私たちは自己適応のための短いサンプルシーケンスでモデルをトレーニングし、その後インタラクティブなフレームレートでモデルを実行します。
texmeshを合成および実世界のデータで検証し,定量的および定性的に芸術の状態を上回っていることを示す。
関連論文リスト
- Bridging 3D Gaussian and Mesh for Freeview Video Rendering [57.21847030980905]
GauMeshはダイナミックシーンのモデリングとレンダリングのために3D GaussianとMeshをブリッジする。
提案手法は, 動的シーンの異なる部分を表現するために, プリミティブの適切なタイプに適応することを示す。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - Texture-GS: Disentangling the Geometry and Texture for 3D Gaussian Splatting Editing [79.10630153776759]
3Dガウススプラッティングは画期的なアプローチとして登場し、高忠実度再構成とリアルタイムレンダリングの能力に注目が集まっている。
そこで我々は,テクスチャ-GSという新しいアプローチを提案し,その外観を3次元表面上にマッピングされた2次元テクスチャとして表現することで幾何学から切り離す。
提案手法は,高精細な外観の編集を容易にするだけでなく,コンシューマレベルのデバイス上でのリアルタイムレンダリングも実現している。
論文 参考訳(メタデータ) (2024-03-15T06:42:55Z) - SceneTex: High-Quality Texture Synthesis for Indoor Scenes via Diffusion
Priors [49.03627933561738]
SceneTexは、奥行き拡散前処理を用いた室内シーンの高品質でスタイルに一貫性のあるテクスチャを生成する新しい方法である。
SceneTexは3D-FRONTシーンの様々な正確なテクスチャ合成を可能にする。
論文 参考訳(メタデータ) (2023-11-28T22:49:57Z) - Mesh2Tex: Generating Mesh Textures from Image Queries [45.32242590651395]
特に、実際の物体の画像からのテクスチャ化されたステージテクスチャは、実際の画像観察と一致する。
本稿では,非相関な3次元オブジェクト形状のコレクションからオブジェクト形状を学習するMesh2Texを紹介する。
論文 参考訳(メタデータ) (2023-04-12T13:58:25Z) - CrossHuman: Learning Cross-Guidance from Multi-Frame Images for Human
Reconstruction [6.450579406495884]
CrossHumanは、パラメトリック人間モデルとマルチフレームRGB画像からクロスガイダンスを学ぶ新しい方法である。
トラッカーベース手法とトラッカーフリー手法を組み合わせた再構成パイプラインを設計する。
これまでの研究と比較すると、CrossHumanは目に見える領域と見えない領域の両方で、高忠実度な幾何学的詳細とテクスチャを可能にする。
論文 参考訳(メタデータ) (2022-07-20T08:25:20Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z) - GeoNeRF: Generalizing NeRF with Geometry Priors [2.578242050187029]
ニューラルラジアンス場に基づく一般化可能なフォトリアリスティック・ノベルビュー手法GeoNeRFを提案する。
我々のアプローチは、幾何学的推論と合成という2つの主要な段階から構成される。
実験により、GeoNeRFは様々な合成および実際のデータセット上で、最先端の一般化可能なニューラルネットワークレンダリングモデルより優れていることが示された。
論文 参考訳(メタデータ) (2021-11-26T15:15:37Z) - Dynamic Object Removal and Spatio-Temporal RGB-D Inpainting via
Geometry-Aware Adversarial Learning [9.150245363036165]
動的物体はロボットの環境に対する認識に大きな影響を及ぼす。
本研究は,動的物体によって隠蔽された領域における可塑性色,テクスチャ,幾何学を合成することにより,この問題に対処する。
本研究は, 対人訓練を用いて建築を最適化し, オンラインで色と深度構造を幻覚できるような, 微妙な現実的なテクスチャを合成する。
論文 参考訳(メタデータ) (2020-08-12T01:23:21Z) - SparseFusion: Dynamic Human Avatar Modeling from Sparse RGBD Images [49.52782544649703]
本稿では,RGBDフレームのスパース集合に基づく3次元人体形状の再構築手法を提案する。
主な課題は、これらのスパースフレームを標準的な3Dモデルにしっかりと融合させる方法だ。
私たちのフレームワークは柔軟で、潜在的なアプリケーションは形状の再構築を超えています。
論文 参考訳(メタデータ) (2020-06-05T18:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。