論文の概要: Mesh Density Adaptation for Template-based Shape Reconstruction
- arxiv url: http://arxiv.org/abs/2307.16205v1
- Date: Sun, 30 Jul 2023 11:42:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 17:09:19.149119
- Title: Mesh Density Adaptation for Template-based Shape Reconstruction
- Title(参考訳): テンプレートに基づく形状再構成のためのメッシュ密度適応
- Authors: Yucheol Jung, Hyomin Kim, Gyeongha Hwang, Seung-Hwan Baek, Seungyong
Lee
- Abstract要約: テンプレートメッシュ変形に基づく3次元形状復元では、スムーズなエネルギーなどの正則化を用いて、再構成を望ましい方向に導く。
本稿では,アンダーサンプリング問題の解法として,メッシュ密度適応法を提案する。
- 参考スコア(独自算出の注目度): 14.568210512707601
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In 3D shape reconstruction based on template mesh deformation, a
regularization, such as smoothness energy, is employed to guide the
reconstruction into a desirable direction. In this paper, we highlight an often
overlooked property in the regularization: the vertex density in the mesh.
Without careful control on the density, the reconstruction may suffer from
under-sampling of vertices near shape details. We propose a novel mesh density
adaptation method to resolve the under-sampling problem. Our mesh density
adaptation energy increases the density of vertices near complex structures via
deformation to help reconstruction of shape details. We demonstrate the
usability and performance of mesh density adaptation with two tasks, inverse
rendering and non-rigid surface registration. Our method produces more accurate
reconstruction results compared to the cases without mesh density adaptation.
- Abstract(参考訳): テンプレートメッシュ変形に基づく3次元形状復元では、スムーズなエネルギーなどの正則化を用いて、再構成を望ましい方向に導く。
本稿では,メッシュ内の頂点密度という正規化においてしばしば見過ごされる性質を強調する。
密度を注意深く制御しなければ、復元は形状の詳細付近の頂点のサンプル不足に苦しむ可能性がある。
アンダーサンプリング問題を解決するために,メッシュ密度適応法を提案する。
メッシュ密度適応エネルギーは,変形により複雑な構造物近傍の頂点密度を増加させ,形状詳細の再構成に寄与する。
逆レンダリングと非剛体表面登録という2つのタスクでメッシュ密度適応のユーザビリティと性能を実証する。
メッシュ密度適応のない場合と比較して, より正確な再構成結果が得られる。
関連論文リスト
- T-Pixel2Mesh: Combining Global and Local Transformer for 3D Mesh Generation from a Single Image [84.08705684778666]
本稿では,P2Mの粗大なアプローチにインスパイアされたトランスフォーマーブーストアーキテクチャT-Pixel2Meshを提案する。
具体的には,大域変換器を用いて局所的な形状を制御し,局所的な幾何学的詳細を洗練させる。
ShapeNetの実験では最先端の性能が実証され,実世界のデータでは一般化能力が示された。
論文 参考訳(メタデータ) (2024-03-20T15:14:22Z) - Binary Opacity Grids: Capturing Fine Geometric Detail for Mesh-Based
View Synthesis [70.40950409274312]
我々は、細い構造を再構築する能力を損なうことなく、表面への収束を促すために密度場を変更する。
また, メッシュの単純化と外観モデルの適合により, 融合型メッシュ方式を開発した。
私たちのモデルで生成されたコンパクトメッシュは、モバイルデバイス上でリアルタイムでレンダリングできます。
論文 参考訳(メタデータ) (2024-02-19T18:59:41Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - Neural Shape Deformation Priors [14.14047635248036]
本稿では,新しい形状操作法であるニューラル・シェイプ・フォーメーション・プレファレンスを提案する。
形状の幾何学的性質に基づいて変形挙動を学習する。
本手法は, 難解な変形に対して適用可能であり, 未知の変形に対して良好に一般化できる。
論文 参考訳(メタデータ) (2022-10-11T17:03:25Z) - CD$^2$: Fine-grained 3D Mesh Reconstruction with Twice Chamfer Distance [7.456644329433771]
3次元再構成では、ポリゴンメッシュはディープラーニングモデルから得られる最も一般的な表現形式である。
これらのメッシュには、Vertices ClusteringとIllegal Twistと呼ばれる2つの深刻な問題があります。
そこで本研究では,チャムファー距離を2倍に設定した細粒度再構成法CD$2$を提案する。
論文 参考訳(メタデータ) (2022-06-01T12:29:25Z) - Mesh Draping: Parametrization-Free Neural Mesh Transfer [92.55503085245304]
Mesh Drapingは、既存のメッシュ構造をある形状から別の形状に転送するニューラルネットワークである。
我々は、徐々に増加する周波数を活用して、ニューラルネットワークの最適化を導くことにより、安定かつ高品質なメッシュ転送を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-11T17:24:52Z) - Volume Rendering of Neural Implicit Surfaces [57.802056954935495]
本稿では,ニューラルボリュームレンダリングにおける幾何学的表現と再構成を改善することを目的とする。
体積密度を幾何学の関数としてモデル化することで実現する。
この新たな密度表現を挑戦的なシーンマルチビューデータセットに適用することで、高品質な幾何学的再構成を実現した。
論文 参考訳(メタデータ) (2021-06-22T20:23:16Z) - Dense Non-Rigid Structure from Motion: A Manifold Viewpoint [162.88686222340962]
Non-Rigid Structure-from-Motion (NRSfM) 問題は、複数のフレームにまたがる2次元特徴対応から変形物体の3次元形状を復元することを目的としている。
提案手法は,ノイズに対する精度,スケーラビリティ,堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2020-06-15T09:15:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。