論文の概要: DMesh: A Differentiable Representation for General Meshes
- arxiv url: http://arxiv.org/abs/2404.13445v1
- Date: Sat, 20 Apr 2024 18:52:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 19:00:27.514213
- Title: DMesh: A Differentiable Representation for General Meshes
- Title(参考訳): DMesh: 汎用メッシュの差別化可能な表現
- Authors: Sanghyun Son, Matheus Gadelha, Yang Zhou, Zexiang Xu, Ming C. Lin, Yi Zhou,
- Abstract要約: DMeshはメッシュの幾何学情報と接続情報の両方を考慮する。
まず、重み付きデラウネー三角測量(WDT)に基づいて、領域をコンパクトにテセルレートする凸四面体(convex tetrahedra)の集合を得る。
- 参考スコア(独自算出の注目度): 40.800084296073415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a differentiable representation, DMesh, for general 3D triangular meshes. DMesh considers both the geometry and connectivity information of a mesh. In our design, we first get a set of convex tetrahedra that compactly tessellates the domain based on Weighted Delaunay Triangulation (WDT), and formulate probability of faces to exist on our desired mesh in a differentiable manner based on the WDT. This enables DMesh to represent meshes of various topology in a differentiable way, and allows us to reconstruct the mesh under various observations, such as point cloud and multi-view images using gradient-based optimization. The source code and full paper is available at: https://sonsang.github.io/dmesh-project.
- Abstract(参考訳): 一般的な3次元三角形メッシュに対して微分可能表現 DMesh を提案する。
DMeshはメッシュの幾何学情報と接続情報の両方を考慮する。
我々の設計では、まず、重み付きデラウネー三角測量(WDT)に基づく領域をコンパクトにテセルレートする凸テトラヘドラの集合を取得し、WDTに基づく微分可能な方法で、所望のメッシュ上に存在する顔の確率を定式化する。
これにより、DMeshは様々なトポロジのメッシュを微分可能な方法で表現することができ、勾配に基づく最適化を用いて、ポイントクラウドやマルチビューイメージなど、さまざまな観測の下でメッシュを再構築することができる。
ソースコードと全文は、https://sonsang.github.io/dmesh-project.orgで入手できる。
関連論文リスト
- PivotMesh: Generic 3D Mesh Generation via Pivot Vertices Guidance [66.40153183581894]
汎用的でスケーラブルなメッシュ生成フレームワークであるPivotMeshを紹介します。
PivotMeshは、ネイティブメッシュ生成を大規模データセットに拡張する最初の試みである。
PivotMeshは,様々なカテゴリにまたがって,コンパクトでシャープな3Dメッシュを生成することができることを示す。
論文 参考訳(メタデータ) (2024-05-27T07:13:13Z) - NeuralMeshing: Differentiable Meshing of Implicit Neural Representations [63.18340058854517]
ニューラルな暗黙表現から表面メッシュを抽出する新しい微分可能なメッシュアルゴリズムを提案する。
本手法は,通常のテッセルレーションパターンと,既存の手法に比べて三角形面の少ないメッシュを生成する。
論文 参考訳(メタデータ) (2022-10-05T16:52:25Z) - Laplacian2Mesh: Laplacian-Based Mesh Understanding [4.808061174740482]
我々は3次元トライアングルメッシュのための新しいフレキシブル畳み込みニューラルネットワーク(CNN)モデルであるLaplacian2Meshを紹介した。
メッシュプーリングはラプラシアンの多空間変換によりネットワークの受容場を拡張するために適用される。
3Dメッシュに適用されたさまざまな学習タスクの実験は、Laplacian2Meshの有効性と効率を実証している。
論文 参考訳(メタデータ) (2022-02-01T10:10:13Z) - N-Cloth: Predicting 3D Cloth Deformation with Mesh-Based Networks [69.94313958962165]
本稿では,3次元布の変形予測のためのメッシュに基づく新しい学習手法(N-Cloth)を提案する。
グラフ畳み込みを用いて、メッシュ空間の非線形性を低減するために、布とメッシュを潜在空間に変換する。
我々のアプローチは、SMPL人間、非SMPL人間、または剛体に対応する様々な物体で、最大100ドルの三角形とシーンを持つ複雑な布メッシュを扱うことができる。
論文 参考訳(メタデータ) (2021-12-13T03:13:11Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - DeepMesh: Differentiable Iso-Surface Extraction [53.77622255726208]
本稿では,Deep Implicit Fieldsから表面メッシュを明示的に表現する方法を提案する。
我々の重要な洞察は、暗黙の場摂動が局所的な表面形状にどのように影響するかを推論することによって、最終的に表面サンプルの3次元位置を区別できるということである。
私たちはこれを利用して、そのトポロジを変えることができるDeepMesh – エンドツーエンドの差別化可能なメッシュ表現を定義する。
論文 参考訳(メタデータ) (2021-06-20T20:12:41Z) - DualConv: Dual Mesh Convolutional Networks for Shape Correspondence [44.94765770516059]
畳み込みニューラルネットワークは2d画像で非常に成功し、3dボクセルデータを扱うために容易に拡張されている。
本稿では,これらのネットワークを三角メッシュの二重面表現に拡張する方法を検討する。
実験により,二重メッシュの近傍サイズの正則性を明示的に活用した畳み込みモデルの構築により,従来の手法と同等以上の形状表現を学習できることを実証した。
論文 参考訳(メタデータ) (2021-03-23T11:22:47Z) - MeshWalker: Deep Mesh Understanding by Random Walks [19.594977587417247]
コンピュータグラフィックスにおける最も一般的な3D形状(三角形メッシュ)の表現を見て、ディープラーニングでどのように活用できるかを尋ねる。
本稿では、メッシュから形状を直接学習する、まったく異なるアプローチであるMeshWalkerを提案する。
提案手法は,2つの基本形状解析タスクに対して,最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2020-06-09T15:35:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。