論文の概要: Voxel Structure-based Mesh Reconstruction from a 3D Point Cloud
- arxiv url: http://arxiv.org/abs/2104.10622v2
- Date: Thu, 22 Apr 2021 12:50:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 11:16:21.740814
- Title: Voxel Structure-based Mesh Reconstruction from a 3D Point Cloud
- Title(参考訳): 3次元点雲からのボクセル構造に基づくメッシュ再構成
- Authors: Chenlei Lv, Weisi Lin, Baoquan Zhao
- Abstract要約: ボクセル構造に基づくメッシュ再構築フレームワークを提案する。
局所領域検出の精度を向上させるための本質的な指標を提供する。
検出された局所領域に基づいて、初期再構成メッシュを得ることができる。
- 参考スコア(独自算出の注目度): 46.614652377214135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mesh reconstruction from a 3D point cloud is an important topic in the fields
of computer graphic, computer vision, and multimedia analysis. In this paper,
we propose a voxel structure-based mesh reconstruction framework. It provides
the intrinsic metric to improve the accuracy of local region detection. Based
on the detected local regions, an initial reconstructed mesh can be obtained.
With the mesh optimization in our framework, the initial reconstructed mesh is
optimized into an isotropic one with the important geometric features such as
external and internal edges. The experimental results indicate that our
framework shows great advantages over peer ones in terms of mesh quality,
geometric feature keeping, and processing speed.
- Abstract(参考訳): 3Dポイントクラウドからのメッシュ再構築は、コンピュータグラフィック、コンピュータビジョン、マルチメディア分析の分野で重要なトピックである。
本稿では,ボクセル構造に基づくメッシュ再構築フレームワークを提案する。
局所領域検出の精度を向上させるための本質的な指標を提供する。
検出された局所領域に基づいて、初期再構成メッシュを得ることができる。
我々のフレームワークにおけるメッシュ最適化では、初期再構成メッシュは、外部エッジや内部エッジといった重要な幾何学的特徴を持つ等方的メッシュに最適化される。
実験の結果,メッシュ品質,幾何的特徴保持,処理速度の点で,我々のフレームワークはピアに比べて大きな優位性を示した。
関連論文リスト
- GeoGaussian: Geometry-aware Gaussian Splatting for Scene Rendering [83.19049705653072]
ガウススプレイティング最適化の過程で、その構造が意図的に保存されていない場合、シーンの幾何学は徐々に悪化する。
我々はこの問題を緩和するためにGeoGaussianと呼ばれる新しいアプローチを提案する。
提案するパイプラインは、新しいビュー合成と幾何再構成において最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-03-17T20:06:41Z) - SieveNet: Selecting Point-Based Features for Mesh Networks [41.74190660234404]
メッシュは3Dコンピュータビジョンとグラフィックスで広く使用されているが、その不規則なトポロジは、既存のニューラルネットワークアーキテクチャに適用する際の課題を提起している。
メッシュニューラルネットワークの最近の進歩は、生メッシュを入力としてのみ取り込むパイオニアメソッドの境界を押し付けている。
本稿では、正規位相と正確な幾何学の両方を考慮した新しいパラダイムであるSieveNetを提案する。
論文 参考訳(メタデータ) (2023-08-24T03:40:16Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - Mesh Draping: Parametrization-Free Neural Mesh Transfer [92.55503085245304]
Mesh Drapingは、既存のメッシュ構造をある形状から別の形状に転送するニューラルネットワークである。
我々は、徐々に増加する周波数を活用して、ニューラルネットワークの最適化を導くことにより、安定かつ高品質なメッシュ転送を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-11T17:24:52Z) - RfD-Net: Point Scene Understanding by Semantic Instance Reconstruction [19.535169371240073]
本稿では,高密度物体表面を直接点雲から検出・再構成するRfD-Netを提案する。
インスタンス再構成を大域的オブジェクトローカライゼーションと局所形状予測に分離する。
我々のアプローチは、オブジェクト再構成において、最先端の技術を一貫して上回り、メッシュIoUの11以上を改善します。
論文 参考訳(メタデータ) (2020-11-30T12:58:05Z) - GAMesh: Guided and Augmented Meshing for Deep Point Networks [4.599235672072547]
本稿では、GAMeshと呼ばれる新しいメッシュアルゴリズムを提案する。これは、メッシュを使用して、ポイントネットワークの出力ポイントの表面を生成する。
この先に出力ポイントを投影することにより、GAMeshはメッシュと同じトポロジを持つ曲面を保証するが、その幾何学的忠実度は点ネットワークによって制御される。
論文 参考訳(メタデータ) (2020-10-19T18:23:53Z) - Deep Geometric Texture Synthesis [83.9404865744028]
幾何学的テクスチャを合成するための新しい枠組みを提案する。
単一の参照3Dモデルの局所的な近傍からテクスチャ統計を学習する。
我々のネットワークはメッシュ頂点を任意の方向に変位させ、幾何学的テクスチャの合成を可能にする。
論文 参考訳(メタデータ) (2020-06-30T19:36:38Z) - Neural Subdivision [58.97214948753937]
本稿では,データ駆動型粗粒度モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
すべてのローカルメッシュパッチで同じネットワーク重みのセットを最適化するため、特定の入力メッシュや固定属、カテゴリに制約されないアーキテクチャを提供します。
単一の高分解能メッシュでトレーニングしても,本手法は新規な形状に対して合理的な区分を生成する。
論文 参考訳(メタデータ) (2020-05-04T20:03:21Z) - Deep Manifold Prior [37.725563645899584]
本稿では,3次元形状の表面などの多様体構造データに先行する手法を提案する。
この方法で生成された曲面は滑らかであり、ガウス過程を特徴とする制限的な挙動を示し、完全連結および畳み込みネットワークに対して数学的にそのような特性を導出する。
論文 参考訳(メタデータ) (2020-04-08T20:47:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。