論文の概要: Learning Smooth Neural Functions via Lipschitz Regularization
- arxiv url: http://arxiv.org/abs/2202.08345v1
- Date: Wed, 16 Feb 2022 21:24:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 15:52:36.962442
- Title: Learning Smooth Neural Functions via Lipschitz Regularization
- Title(参考訳): リプシッツ正則化による滑らかな神経機能の学習
- Authors: Hsueh-Ti Derek Liu, Francis Williams, Alec Jacobson, Sanja Fidler, Or
Litany
- Abstract要約: ニューラルフィールドにおけるスムーズな潜伏空間を促進するために設計された新しい正規化を導入する。
従来のリプシッツ正規化ネットワークと比較して、我々のアルゴリズムは高速で、4行のコードで実装できる。
- 参考スコア(独自算出の注目度): 92.42667575719048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural implicit fields have recently emerged as a useful representation for
3D shapes. These fields are commonly represented as neural networks which map
latent descriptors and 3D coordinates to implicit function values. The latent
descriptor of a neural field acts as a deformation handle for the 3D shape it
represents. Thus, smoothness with respect to this descriptor is paramount for
performing shape-editing operations. In this work, we introduce a novel
regularization designed to encourage smooth latent spaces in neural fields by
penalizing the upper bound on the field's Lipschitz constant. Compared with
prior Lipschitz regularized networks, ours is computationally fast, can be
implemented in four lines of code, and requires minimal hyperparameter tuning
for geometric applications. We demonstrate the effectiveness of our approach on
shape interpolation and extrapolation as well as partial shape reconstruction
from 3D point clouds, showing both qualitative and quantitative improvements
over existing state-of-the-art and non-regularized baselines.
- Abstract(参考訳): ニューラル暗黙のフィールドは3次元形状の有用な表現として最近登場した。
これらのフィールドは一般に、潜在記述子と3D座標を暗黙の関数値にマッピングするニューラルネットワークとして表現される。
ニューラルネットワークの潜在記述子は、その表現する3D形状の変形ハンドルとして機能する。
したがって、このディスクリプタに関する滑らかさは、形状編集操作を行う上で最重要となる。
本研究では,ニューラルネットワークにおけるスムーズな潜伏空間を促進するために,場のリプシッツ定数上の上限をペナル化することによって,新しい正規化を導入する。
従来のリプシッツ正規化ネットワークと比較して計算が高速で、4行のコードで実装でき、幾何学的応用には最小限のハイパーパラメータチューニングが必要となる。
提案手法が3次元点雲からの形状補間および外挿および部分形状再構成に有効であることを示し,既存の最先端および非正規化ベースラインに対する質的および定量的な改善を示した。
関連論文リスト
- Optimizing 3D Geometry Reconstruction from Implicit Neural Representations [2.3940819037450987]
暗黙の神経表現は、3D幾何学を学ぶための強力なツールとして登場した。
本稿では,計算コストを削減し,細部を捉える新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-16T16:36:23Z) - NeuralMeshing: Differentiable Meshing of Implicit Neural Representations [63.18340058854517]
ニューラルな暗黙表現から表面メッシュを抽出する新しい微分可能なメッシュアルゴリズムを提案する。
本手法は,通常のテッセルレーションパターンと,既存の手法に比べて三角形面の少ないメッシュを生成する。
論文 参考訳(メタデータ) (2022-10-05T16:52:25Z) - Neural Jacobian Fields: Learning Intrinsic Mappings of Arbitrary Meshes [38.157373733083894]
本稿では,ニューラルネットワークによる任意のメッシュの断片的線形マッピングを正確に予測するフレームワークを提案する。
このフレームワークは、グローバルな形状記述子に条件付けされた単一点の行列の予測に神経的な側面を還元することに基づいている。
個々のメッシュの固有の勾配領域で操作することで、フレームワークは高度に正確なマッピングを予測できる。
論文 参考訳(メタデータ) (2022-05-05T19:51:13Z) - Deep Implicit Surface Point Prediction Networks [49.286550880464866]
暗黙の関数としての3次元形状の深い神経表現は、高忠実度モデルを生成することが示されている。
本稿では,CSP(Nest Surface-point)表現と呼ばれる新しい種類の暗黙の表現を用いて,そのような曲面をモデル化する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-10T14:31:54Z) - Shape As Points: A Differentiable Poisson Solver [118.12466580918172]
本稿では,ポアソン表面再構成 (PSR) の微分可能な定式化を用いた,微分可能な点間メッシュ層を提案する。
微分可能なPSR層は、暗示指標場を介して、明示的な3D点表現を3Dメッシュに効率よく、かつ、差別的にブリッジすることができる。
ニューラル暗黙の表現と比較して、私たちのシェープ・アズ・ポイント(SAP)モデルはより解釈可能で、軽量で、1桁の推論時間を加速します。
論文 参考訳(メタデータ) (2021-06-07T09:28:38Z) - SNARF: Differentiable Forward Skinning for Animating Non-Rigid Neural
Implicit Shapes [117.76767853430243]
SNARFは多角形メッシュに対する線形ブレンドスキンの利点とニューラル暗黙表面の利点を組み合わせたものである。
反復ルート探索を用いて任意の変形点のすべての正準対応を探索するフォワードスキンモデルを提案する。
最先端のニューラルネットワークの暗黙的表現と比較すると,このアプローチは,精度を維持しつつ,未認識のポーズを一般化する。
論文 参考訳(メタデータ) (2021-04-08T17:54:59Z) - On the Effectiveness of Weight-Encoded Neural Implicit 3D Shapes [38.13954772608884]
ニューラル暗黙は、空間内の所定のクエリポイントが内部、外部、または表面にあるかどうかを示す番号を出力する。
従来の研究は_latent-encoded_ Neural implicitsに重点を置いており、特定の形状の潜在ベクトル符号化も入力として提供される。
_weight-encoded_ニューラル暗黙は潜伏ベクトルを抑え、単一形状の詳細に再構成精度を集中させる。
論文 参考訳(メタデータ) (2020-09-17T23:10:19Z) - Learning Local Neighboring Structure for Robust 3D Shape Representation [143.15904669246697]
3Dメッシュの表現学習は多くのコンピュータビジョンやグラフィックスアプリケーションにおいて重要である。
局所構造認識型異方性畳み込み操作(LSA-Conv)を提案する。
本モデルでは,3次元形状復元において最先端の手法に比べて顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-04-21T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。