論文の概要: DualConv: Dual Mesh Convolutional Networks for Shape Correspondence
- arxiv url: http://arxiv.org/abs/2103.12459v1
- Date: Tue, 23 Mar 2021 11:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 22:10:09.726764
- Title: DualConv: Dual Mesh Convolutional Networks for Shape Correspondence
- Title(参考訳): DualConv: 形状対応のためのデュアルメッシュ畳み込みネットワーク
- Authors: Nitika Verma, Adnane Boukhayma, Jakob Verbeek, Edmond Boyer
- Abstract要約: 畳み込みニューラルネットワークは2d画像で非常に成功し、3dボクセルデータを扱うために容易に拡張されている。
本稿では,これらのネットワークを三角メッシュの二重面表現に拡張する方法を検討する。
実験により,二重メッシュの近傍サイズの正則性を明示的に活用した畳み込みモデルの構築により,従来の手法と同等以上の形状表現を学習できることを実証した。
- 参考スコア(独自算出の注目度): 44.94765770516059
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks have been extremely successful for 2D images
and are readily extended to handle 3D voxel data. Meshes are a more common 3D
shape representation that quantize the shape surface instead of the ambient
space as with voxels, hence giving access to surface properties such as normals
or appearances. The formulation of deep neural networks on meshes is, however,
more complex since they are irregular data structures where the number of
neighbors varies across vertices. While graph convolutional networks have
previously been proposed over mesh vertex data, in this paper we explore how
these networks can be extended to the dual face-based representation of
triangular meshes, where nodes represent triangular faces in place of vertices.
In comparison to the primal vertex mesh, its face dual offers several
advantages, including, importantly, that the dual mesh is regular in the sense
that each triangular face has exactly three neighbors. Moreover, the dual mesh
suggests the use of a number of input features that are naturally defined over
faces, such as surface normals and face areas. We evaluate the dual approach on
the shape correspondence task on the FAUST human shape dataset and other
versions of it with varying mesh topology. While applying generic graph
convolutions to the dual mesh shows already improvements over primal mesh
inputs, our experiments demonstrate that building additionally convolutional
models that explicitly leverage the neighborhood size regularity of dual meshes
enables learning shape representations that perform on par or better than
previous approaches in terms of correspondence accuracy and mean geodesic
error, while being more robust to topological changes in the meshes between
training and testing shapes.
- Abstract(参考訳): 畳み込みニューラルネットワークは2d画像で非常に成功し、3dボクセルデータを扱うために容易に拡張されている。
メッシュはより一般的な3次元形状表現であり、ボクセルのように周囲空間ではなく形状表面を定量化し、通常の形状や外観のような表面の性質にアクセスできる。
しかし、メッシュ上のディープニューラルネットワークの定式化は、近隣のノードの数が異なる不規則なデータ構造であるため、より複雑である。
グラフ畳み込みネットワークは従来,メッシュ頂点データ上で提案されてきたが,本論文では,ノードが頂点の代わりに三角形の面を表す三角メッシュの二重面表現にどのように拡張できるかを考察する。
原始頂点メッシュと比較して、その顔双対はいくつかの利点があり、重要なことに、各三角形の面がちょうど3つの隣り合わせを持つという意味では、二重メッシュは正規である。
さらに、デュアルメッシュは、表面正規値や顔領域など、顔上で自然に定義される多くの入力機能の使用を示唆している。
FAUSTの人体形状データセットにおける形状対応タスクに対する2つのアプローチをメッシュトポロジによって評価した。
While applying generic graph convolutions to the dual mesh shows already improvements over primal mesh inputs, our experiments demonstrate that building additionally convolutional models that explicitly leverage the neighborhood size regularity of dual meshes enables learning shape representations that perform on par or better than previous approaches in terms of correspondence accuracy and mean geodesic error, while being more robust to topological changes in the meshes between training and testing shapes.
関連論文リスト
- GenUDC: High Quality 3D Mesh Generation with Unsigned Dual Contouring Representation [13.923644541595893]
3次元生成モデルは、複雑な構造と現実的な表面を持つ高品質なメッシュを生成する。
我々は、Unsigned Dual Contouring (UDC) をメッシュ表現として活用することにより、これらの課題に対処するGenUDCフレームワークを提案する。
さらに、GenUDCは2段階の粗大な生成プロセスを3Dメッシュ生成に採用している。
論文 参考訳(メタデータ) (2024-10-23T11:59:49Z) - SpaceMesh: A Continuous Representation for Learning Manifold Surface Meshes [61.110517195874074]
本稿では,ニューラルネットワークの出力として,複雑な接続性を持つ多様体多角形メッシュを直接生成する手法を提案する。
私たちの重要なイノベーションは、各メッシュで連続的な遅延接続空間を定義することです。
アプリケーションでは、このアプローチは生成モデルから高品質な出力を得るだけでなく、メッシュ修復のような挑戦的な幾何処理タスクを直接学習することを可能にする。
論文 参考訳(メタデータ) (2024-09-30T17:59:03Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Laplacian2Mesh: Laplacian-Based Mesh Understanding [4.808061174740482]
我々は3次元トライアングルメッシュのための新しいフレキシブル畳み込みニューラルネットワーク(CNN)モデルであるLaplacian2Meshを紹介した。
メッシュプーリングはラプラシアンの多空間変換によりネットワークの受容場を拡張するために適用される。
3Dメッシュに適用されたさまざまな学習タスクの実験は、Laplacian2Meshの有効性と効率を実証している。
論文 参考訳(メタデータ) (2022-02-01T10:10:13Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - Subdivision-Based Mesh Convolution Networks [38.09613983540932]
畳み込みニューラルネットワーク(CNN)は、2Dコンピュータビジョンにおいて大きなブレークスルーをもたらした。
本稿では,ループ分割シーケンス接続を伴う3次元トライアングルメッシュのための新しいCNNフレームワークSubdivNetを提案する。
メッシュ分類,セグメンテーション,対応,実世界からの検索実験により,SubdivNetの有効性と有効性を示す。
論文 参考訳(メタデータ) (2021-06-04T06:50:34Z) - Primal-Dual Mesh Convolutional Neural Networks [62.165239866312334]
本稿では,グラフ・ニューラル・ネットワークの文献からトライアングル・メッシュへ引き起こされた原始双対のフレームワークを提案する。
提案手法は,3次元メッシュのエッジと顔の両方を入力として特徴付け,動的に集約する。
メッシュ単純化の文献から得られたツールを用いて、我々のアプローチに関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-10-23T14:49:02Z) - DualConvMesh-Net: Joint Geodesic and Euclidean Convolutions on 3D Meshes [28.571946680616765]
本稿では3次元幾何データよりも深い階層的畳み込みネットワークのファミリーを提案する。
最初の型である測地的畳み込みは、メッシュ表面またはグラフ上のカーネルウェイトを定義する。
第2のタイプであるユークリッドの畳み込みは、基盤となるメッシュ構造とは独立である。
論文 参考訳(メタデータ) (2020-04-02T13:52:00Z) - PUGeo-Net: A Geometry-centric Network for 3D Point Cloud Upsampling [103.09504572409449]
PUGeo-Netと呼ばれる新しいディープニューラルネットワークを用いた一様高密度点雲を生成する手法を提案する。
その幾何学中心の性質のおかげで、PUGeo-Netはシャープな特徴を持つCADモデルとリッチな幾何学的詳細を持つスキャンされたモデルの両方でうまく機能する。
論文 参考訳(メタデータ) (2020-02-24T14:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。