論文の概要: Neural Subdivision
- arxiv url: http://arxiv.org/abs/2005.01819v1
- Date: Mon, 4 May 2020 20:03:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 01:42:38.796465
- Title: Neural Subdivision
- Title(参考訳): 神経サブディビジョン
- Authors: Hsueh-Ti Derek Liu, Vladimir G. Kim, Siddhartha Chaudhuri, Noam
Aigerman, Alec Jacobson
- Abstract要約: 本稿では,データ駆動型粗粒度モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
すべてのローカルメッシュパッチで同じネットワーク重みのセットを最適化するため、特定の入力メッシュや固定属、カテゴリに制約されないアーキテクチャを提供します。
単一の高分解能メッシュでトレーニングしても,本手法は新規な形状に対して合理的な区分を生成する。
- 参考スコア(独自算出の注目度): 58.97214948753937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces Neural Subdivision, a novel framework for data-driven
coarse-to-fine geometry modeling. During inference, our method takes a coarse
triangle mesh as input and recursively subdivides it to a finer geometry by
applying the fixed topological updates of Loop Subdivision, but predicting
vertex positions using a neural network conditioned on the local geometry of a
patch. This approach enables us to learn complex non-linear subdivision
schemes, beyond simple linear averaging used in classical techniques. One of
our key contributions is a novel self-supervised training setup that only
requires a set of high-resolution meshes for learning network weights. For any
training shape, we stochastically generate diverse low-resolution
discretizations of coarse counterparts, while maintaining a bijective mapping
that prescribes the exact target position of every new vertex during the
subdivision process. This leads to a very efficient and accurate loss function
for conditional mesh generation, and enables us to train a method that
generalizes across discretizations and favors preserving the manifold structure
of the output. During training we optimize for the same set of network weights
across all local mesh patches, thus providing an architecture that is not
constrained to a specific input mesh, fixed genus, or category. Our network
encodes patch geometry in a local frame in a rotation- and
translation-invariant manner. Jointly, these design choices enable our method
to generalize well, and we demonstrate that even when trained on a single
high-resolution mesh our method generates reasonable subdivisions for novel
shapes.
- Abstract(参考訳): 本稿では,データ駆動型粗い形状モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
提案手法は,入力として粗三角形メッシュを取り,ループ部分分割の固定トポロジカルな更新を適用して再帰的により細かい幾何に分割するが,パッチの局所幾何を条件としたニューラルネットワークを用いて頂点位置を予測できる。
このアプローチにより、古典的手法で用いられる単純な線形平均よりも、複雑な非線形部分分割スキームを学べる。
私たちの重要なコントリビューションのひとつは、ネットワーク重みを学習するための高解像度メッシュセットのみを必要とする、新たな自己教師型トレーニングセットアップです。
任意のトレーニング形態に対して、我々は、分割過程中に新しい頂点の正確な目標位置を規定する単射写像を維持しながら、粗い物体の様々な低分解能離散化を確率的に生成する。
これにより、条件付きメッシュ生成のための極めて効率的で正確な損失関数が得られ、離散化を一般化し、出力の多様体構造を保存する方法を訓練することができる。
トレーニング中、すべてのローカルメッシュパッチに対して同じネットワーク重みを最適化することで、特定の入力メッシュや固定種数、カテゴリに制限されないアーキテクチャを提供します。
本ネットワークは,局所フレームのパッチ形状を回転および変換不変に符号化する。
共同でこれらの設計選択により,提案手法の一般化が可能となり,単一の高分解能メッシュでトレーニングした場合でも,新しい形状に対する合理的な区分が生成されることを示した。
関連論文リスト
- SpaceMesh: A Continuous Representation for Learning Manifold Surface Meshes [61.110517195874074]
本稿では,ニューラルネットワークの出力として,複雑な接続性を持つ多様体多角形メッシュを直接生成する手法を提案する。
私たちの重要なイノベーションは、各メッシュで連続的な遅延接続空間を定義することです。
アプリケーションでは、このアプローチは生成モデルから高品質な出力を得るだけでなく、メッシュ修復のような挑戦的な幾何処理タスクを直接学習することを可能にする。
論文 参考訳(メタデータ) (2024-09-30T17:59:03Z) - Learning Self-Prior for Mesh Inpainting Using Self-Supervised Graph Convolutional Networks [4.424836140281846]
入力として不完全なメッシュのみを必要とする自己優先型のメッシュインペイントフレームワークを提案する。
本手法は塗装工程を通して多角形メッシュフォーマットを維持している。
提案手法は従来のデータセットに依存しない手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-01T02:51:38Z) - Frame Averaging for Equivariant Shape Space Learning [85.42901997467754]
形状空間学習に対称性を組み込む自然な方法は、形状空間(エンコーダ)への写像と形状空間(デコーダ)からの写像が関連する対称性に同値であることを問うことである。
本稿では,2つのコントリビューションを導入することで,エンコーダとデコーダの等価性を組み込む枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-03T06:41:19Z) - Mesh Draping: Parametrization-Free Neural Mesh Transfer [92.55503085245304]
Mesh Drapingは、既存のメッシュ構造をある形状から別の形状に転送するニューラルネットワークである。
我々は、徐々に増加する周波数を活用して、ニューラルネットワークの最適化を導くことにより、安定かつ高品質なメッシュ転送を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-11T17:24:52Z) - Neural Marching Cubes [14.314650721573743]
我々は、離散化された暗黙の場から三角形メッシュを抽出するデータ駆動型アプローチであるNeural Marching Cubes (NMC)を紹介する。
我々のネットワークは、限られたフィールドで局所的な特徴を学習し、新しい形状や新しいデータセットによく適応することを示す。
論文 参考訳(メタデータ) (2021-06-21T17:18:52Z) - Primal-Dual Mesh Convolutional Neural Networks [62.165239866312334]
本稿では,グラフ・ニューラル・ネットワークの文献からトライアングル・メッシュへ引き起こされた原始双対のフレームワークを提案する。
提案手法は,3次元メッシュのエッジと顔の両方を入力として特徴付け,動的に集約する。
メッシュ単純化の文献から得られたツールを用いて、我々のアプローチに関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-10-23T14:49:02Z) - A Rotation-Invariant Framework for Deep Point Cloud Analysis [132.91915346157018]
ネットワーク入力時に一般的な3次元カルト座標を置き換えるために,新しい低レベル純粋回転不変表現を導入する。
また,これらの表現を特徴に組み込むネットワークアーキテクチャを提案し,点とその近傍の局所的関係とグローバルな形状構造を符号化する。
本手法は, 形状分類, 部分分割, 形状検索を含む多点雲解析タスクにおいて評価する。
論文 参考訳(メタデータ) (2020-03-16T14:04:45Z) - A deep learning approach for the computation of curvature in the
level-set method [0.0]
そこで本研究では,2次元暗黙曲線の平均曲率をレベルセット法で推定する手法を提案する。
我々のアプローチは、様々な解像度の均一な格子に没入した円柱から構築された合成データセットにフィードフォワードニューラルネットワークを適合させることに基づいている。
論文 参考訳(メタデータ) (2020-02-04T00:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。