論文の概要: NRST: Non-rigid Surface Tracking from Monocular Video
- arxiv url: http://arxiv.org/abs/2107.02407v1
- Date: Tue, 6 Jul 2021 06:06:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-08 00:08:35.104671
- Title: NRST: Non-rigid Surface Tracking from Monocular Video
- Title(参考訳): nrst:単眼ビデオによる非剛性表面追跡
- Authors: Marc Habermann, Weipeng Xu, Helge Rhodin, Michael Zollhoefer, Gerard
Pons-Moll, Christian Theobalt
- Abstract要約: モノクロRGBビデオからの非剛性表面追跡の効率的な手法を提案する。
ビデオとテンプレートメッシュが与えられた場合、我々のアルゴリズムはテンプレートをフレーム毎に非厳密に登録する。
以上の結果から, 汎用テクスチャ非剛体および単色織物に対する本手法の有効性が示された。
- 参考スコア(独自算出の注目度): 97.2743051142748
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose an efficient method for non-rigid surface tracking from monocular
RGB videos. Given a video and a template mesh, our algorithm sequentially
registers the template non-rigidly to each frame. We formulate the per-frame
registration as an optimization problem that includes a novel texture term
specifically tailored towards tracking objects with uniform texture but
fine-scale structure, such as the regular micro-structural patterns of fabric.
Our texture term exploits the orientation information in the micro-structures
of the objects, e.g., the yarn patterns of fabrics. This enables us to
accurately track uniformly colored materials that have these high frequency
micro-structures, for which traditional photometric terms are usually less
effective. The results demonstrate the effectiveness of our method on both
general textured non-rigid objects and monochromatic fabrics.
- Abstract(参考訳): モノクロRGBビデオからの非剛性表面追跡の効率的な手法を提案する。
ビデオとテンプレートメッシュが与えられた場合、我々のアルゴリズムはテンプレートをフレームごとに逐次登録する。
ファブリックの規則的なマイクロ構造パターンなど,均一なテクスチャと微細な構造を持つ物体を追跡するための新しいテクスチャ用語を含む最適化問題としてフレーム単位の登録を定式化する。
我々のテクスチャ用語は、例えば織物の糸パターンのようなオブジェクトの微細構造における配向情報を利用する。
これにより、このような高周波のマイクロ構造を持つ均一な色の物質を正確に追跡することができる。
その結果,本手法が汎用テクスチャ非剛体および単色織物に与える影響が示された。
関連論文リスト
- Tex4D: Zero-shot 4D Scene Texturing with Video Diffusion Models [54.35214051961381]
3Dメッシュはコンピュータビジョンとグラフィックスにおいて、アニメーションの効率と映画、ゲーム、AR、VRにおける最小限のメモリ使用のために広く利用されている。
しかし、メッシュのための時間的一貫性と現実的なテクスチャを作成することは、プロのアーティストにとって労働集約的だ。
本稿では、メッシュ配列から固有の幾何学とビデオ拡散モデルを統合することで、一貫したテクスチャを生成する3Dテクスチャシーケンスを提案する。
論文 参考訳(メタデータ) (2024-10-14T17:59:59Z) - LEMON: Localized Editing with Mesh Optimization and Neural Shaders [0.5499187928849248]
ニューラル遅延シェーディングと局所メッシュ最適化を組み合わせたメッシュ編集パイプラインLEMONを提案する。
DTUデータセットを用いてパイプラインを評価し、現在の最先端手法よりも高速に微細に編集されたメッシュを生成することを示す。
論文 参考訳(メタデータ) (2024-09-18T14:34:06Z) - Bridging 3D Gaussian and Mesh for Freeview Video Rendering [57.21847030980905]
GauMeshはダイナミックシーンのモデリングとレンダリングのために3D GaussianとMeshをブリッジする。
提案手法は, 動的シーンの異なる部分を表現するために, プリミティブの適切なタイプに適応することを示す。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - SceneTex: High-Quality Texture Synthesis for Indoor Scenes via Diffusion
Priors [49.03627933561738]
SceneTexは、奥行き拡散前処理を用いた室内シーンの高品質でスタイルに一貫性のあるテクスチャを生成する新しい方法である。
SceneTexは3D-FRONTシーンの様々な正確なテクスチャ合成を可能にする。
論文 参考訳(メタデータ) (2023-11-28T22:49:57Z) - Generative Escher Meshes [14.29301974658956]
本稿では,完全自動テキスト誘導による周期的,周期的,タイル可能な2D画像生成手法を提案する。
タイピング時にシームレスな正方形テクスチャ画像とは対照的に,本手法では非正方形タイリングを生成する。
提案手法は,多種多様な周期パターンに対して,非自明なタイルを用いて,可塑性で魅力的な結果が得られることを示す。
論文 参考訳(メタデータ) (2023-09-25T22:24:02Z) - N-Cloth: Predicting 3D Cloth Deformation with Mesh-Based Networks [69.94313958962165]
本稿では,3次元布の変形予測のためのメッシュに基づく新しい学習手法(N-Cloth)を提案する。
グラフ畳み込みを用いて、メッシュ空間の非線形性を低減するために、布とメッシュを潜在空間に変換する。
我々のアプローチは、SMPL人間、非SMPL人間、または剛体に対応する様々な物体で、最大100ドルの三角形とシーンを持つ複雑な布メッシュを扱うことができる。
論文 参考訳(メタデータ) (2021-12-13T03:13:11Z) - NeuMIP: Multi-Resolution Neural Materials [98.83749495351627]
NeuMIPは、さまざまなスケールでさまざまな材料外観を表現およびレンダリングするためのニューラルメソッドです。
従来のミップマップピラミッドを、完全に接続されたネットワークと組み合わせて、神経テクスチャのピラミッドに一般化する。
テッセルレーションを伴わずに複雑なパララックス効果を持つ材料をレンダリングできる新しい手法であるニューラルオフセットも導入する。
論文 参考訳(メタデータ) (2021-04-06T21:22:22Z) - Efficient texture mapping via a non-iterative global texture alignment [0.0]
与えられた3次元シーンのシームレスなテクスチャ再構築のための非定位的手法を提案する。
本手法は,グローバルな最適化フレームワークを用いて,一つのショットで最高のテクスチャアライメントを見出す。
実験の結果、他のアライメント法と比較して計算複雑性と性能が低いことが示された。
論文 参考訳(メタデータ) (2020-11-02T10:24:19Z) - MonoClothCap: Towards Temporally Coherent Clothing Capture from
Monocular RGB Video [10.679773937444445]
本稿では,モノクラーRGBビデオ入力から時間的コヒーレントな動的衣服の変形を捉える手法を提案する。
我々は,Tシャツ,ショートパンツ,ロングパンツの3種類の衣服の統計的変形モデルを構築した。
本手法は,モノクロ映像から身体と衣服の時間的コヒーレントな再構築を実現する。
論文 参考訳(メタデータ) (2020-09-22T17:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。