論文の概要: Minimal Neural Atlas: Parameterizing Complex Surfaces with Minimal
Charts and Distortion
- arxiv url: http://arxiv.org/abs/2207.14782v1
- Date: Fri, 29 Jul 2022 16:55:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 12:32:25.988256
- Title: Minimal Neural Atlas: Parameterizing Complex Surfaces with Minimal
Charts and Distortion
- Title(参考訳): 最小のニューラルアトラス:最小のチャートと歪みを持つ複素曲面のパラメータ化
- Authors: Weng Fei Low, Gim Hee Lee
- Abstract要約: 我々は、新しいアトラスに基づく明示的なニューラルサーフェス表現であるミニマルニューラルアトラスを提案する。
その中核は完全学習可能なパラメトリック領域であり、パラメトリック空間の開平方上で定義された暗黙の確率的占有場によって与えられる。
我々の再構成は、トポロジーと幾何学に関する懸念の分離のため、全体的な幾何学の観点からより正確である。
- 参考スコア(独自算出の注目度): 71.52576837870166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explicit neural surface representations allow for exact and efficient
extraction of the encoded surface at arbitrary precision, as well as analytic
derivation of differential geometric properties such as surface normal and
curvature. Such desirable properties, which are absent in its implicit
counterpart, makes it ideal for various applications in computer vision,
graphics and robotics. However, SOTA works are limited in terms of the topology
it can effectively describe, distortion it introduces to reconstruct complex
surfaces and model efficiency. In this work, we present Minimal Neural Atlas, a
novel atlas-based explicit neural surface representation. At its core is a
fully learnable parametric domain, given by an implicit probabilistic occupancy
field defined on an open square of the parametric space. In contrast, prior
works generally predefine the parametric domain. The added flexibility enables
charts to admit arbitrary topology and boundary. Thus, our representation can
learn a minimal atlas of 3 charts with distortion-minimal parameterization for
surfaces of arbitrary topology, including closed and open surfaces with
arbitrary connected components. Our experiments support the hypotheses and show
that our reconstructions are more accurate in terms of the overall geometry,
due to the separation of concerns on topology and geometry.
- Abstract(参考訳): 明示的な神経表面表現は、任意の精度でエンコードされた表面の正確かつ効率的な抽出を可能にするとともに、表面正規や曲率などの微分幾何学的性質の解析的導出を可能にする。
このような望ましい性質は、暗黙的でないため、コンピュータビジョン、グラフィックス、ロボット工学の様々な応用に理想的である。
しかし、sotaワークは、効果的に記述できるトポロジー、複雑な表面を再構築するために導入される歪み、およびモデル効率の観点から制限されている。
本稿では,新しいアトラスに基づく明示的な神経表面表現であるminimum neural atlasを提案する。
その中核は完全学習可能なパラメトリック領域であり、パラメトリック空間の開平方上で定義された暗黙の確率的占有場によって与えられる。
対照的に、先行作品は一般にパラメトリック領域を事前に定義する。
柔軟性が追加され、チャートは任意のトポロジーと境界を許容できる。
したがって、任意の連結成分を持つ閉曲面や開曲面を含む任意の位相曲面に対して、歪み最小パラメータ化を伴う3つのチャートの最小アトラスを学習することができる。
我々の実験は、位相と幾何学に関する懸念の分離により、我々の再構成が全体的な幾何学の観点からより正確であることを示す。
関連論文リスト
- Geometry Distributions [51.4061133324376]
本稿では,分布として幾何学をモデル化する新しい幾何学的データ表現を提案する。
提案手法では,新しいネットワークアーキテクチャを用いた拡散モデルを用いて表面点分布の学習を行う。
本研究では,多種多様な対象に対して質的かつ定量的に表現を評価し,その有効性を実証した。
論文 参考訳(メタデータ) (2024-11-25T04:06:48Z) - Neural Geometry Processing via Spherical Neural Surfaces [29.30952578277242]
ニューラルサーフェス表現上でコア幾何学演算子を直接計算する方法を示す。
これらの演算子によって、ニューラル表現に直接作用する幾何学的処理ツールが作成できます。
我々は、(神経)スペクトル分析、熱流、平均曲率流におけるイラストラティブな応用を実証する。
論文 参考訳(メタデータ) (2024-07-10T15:28:02Z) - Flatten Anything: Unsupervised Neural Surface Parameterization [76.4422287292541]
本研究では,FAM(Flatten Anything Model)を導入し,グローバルな自由境界面パラメータ化を実現する。
従来の手法と比較して,FAMは接続情報を活用することなく,個別の面上で直接動作する。
当社のFAMは前処理を必要とせずに完全に自動化されており,高度に複雑なトポロジを扱うことができる。
論文 参考訳(メタデータ) (2024-05-23T14:39:52Z) - A Level Set Theory for Neural Implicit Evolution under Explicit Flows [102.18622466770114]
暗黙の曲面をパラメータ化するコーディネートベースのニューラルネットワークは、幾何学の効率的な表現として登場した。
このような暗黙の面に三角形メッシュに対して定義された変形操作を適用することができるフレームワークを提案する。
提案手法は, 表面平滑化, 平均曲率流, 逆レンダリング, 暗黙的幾何によるユーザ定義編集など, 応用性の向上を示す。
論文 参考訳(メタデータ) (2022-04-14T17:59:39Z) - Neural Convolutional Surfaces [59.172308741945336]
この研究は、大域的、粗い構造から、微細で局所的で、おそらく繰り返される幾何学を歪める形状の表現に関係している。
このアプローチは, 最先端技術よりも優れたニューラル形状圧縮を実現するとともに, 形状詳細の操作と伝達を可能にする。
論文 参考訳(メタデータ) (2022-04-05T15:40:11Z) - A shallow physics-informed neural network for solving partial
differential equations on surfaces [0.0]
表面の偏微分方程式を解くために,メッシュフリーな物理インフォームドニューラルネットワークを導入する。
レベルセット関数の助けを借りて、表面の正規曲率や平均曲率などの表面幾何量を直接計算し、表面微分式に使用することができる。
わずか数百のトレーニング可能なパラメータで、我々のネットワークモデルは高い予測精度を達成することができる。
論文 参考訳(メタデータ) (2022-03-03T09:18:21Z) - Deep Networks on Toroids: Removing Symmetries Reveals the Structure of
Flat Regions in the Landscape Geometry [3.712728573432119]
我々は、すべての対称性を除去し、トロイダルトポロジーをもたらす標準化されたパラメータ化を開発する。
最小化器の平坦性とそれらの接続する測地線経路の有意義な概念を導出する。
また、勾配勾配の変種によって発見された最小化器は、ゼロエラー経路と1つの曲がり角で接続可能であることも見いだした。
論文 参考訳(メタデータ) (2022-02-07T09:57:54Z) - Differential Geometry in Neural Implicits [0.6198237241838558]
トライアングルメッシュの離散微分幾何とニューラル暗黙曲面の連続微分幾何を橋渡しするニューラル暗黙の枠組みを導入する。
ニューラルネットワークの微分可能特性と三角形メッシュの離散幾何学を利用して、ニューラルネットワークをニューラルネットワークの暗黙関数のゼロレベル集合として近似する。
論文 参考訳(メタデータ) (2022-01-23T13:40:45Z) - Deep Implicit Surface Point Prediction Networks [49.286550880464866]
暗黙の関数としての3次元形状の深い神経表現は、高忠実度モデルを生成することが示されている。
本稿では,CSP(Nest Surface-point)表現と呼ばれる新しい種類の暗黙の表現を用いて,そのような曲面をモデル化する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-10T14:31:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。