論文の概要: StEik: Stabilizing the Optimization of Neural Signed Distance Functions
and Finer Shape Representation
- arxiv url: http://arxiv.org/abs/2305.18414v2
- Date: Fri, 6 Oct 2023 18:23:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 11:53:46.601301
- Title: StEik: Stabilizing the Optimization of Neural Signed Distance Functions
and Finer Shape Representation
- Title(参考訳): StEik: ニューラルサイン付き距離関数の最適化と有限形状表現の安定化
- Authors: Huizong Yang, Yuxin Sun, Ganesh Sundaramoorthi, Anthony Yezzi
- Abstract要約: ネットワークの表現力が増加するにつれて、最適化は連続極限における偏微分方程式(PDE)に近づき、不安定となることを示す。
この不安定性は, 既設のネットワーク最適化において発現し, 再構成表面の不規則性や, あるいは局所最小値への収束に繋がることを示す。
アイコナル不安定性に反するが、過剰規則化を伴わない新しい正規化項を導入する。
- 参考スコア(独自算出の注目度): 12.564019188842861
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present new insights and a novel paradigm (StEik) for learning implicit
neural representations (INR) of shapes. In particular, we shed light on the
popular eikonal loss used for imposing a signed distance function constraint in
INR. We show analytically that as the representation power of the network
increases, the optimization approaches a partial differential equation (PDE) in
the continuum limit that is unstable. We show that this instability can
manifest in existing network optimization, leading to irregularities in the
reconstructed surface and/or convergence to sub-optimal local minima, and thus
fails to capture fine geometric and topological structure. We show analytically
how other terms added to the loss, currently used in the literature for other
purposes, can actually eliminate these instabilities. However, such terms can
over-regularize the surface, preventing the representation of fine shape
detail. Based on a similar PDE theory for the continuum limit, we introduce a
new regularization term that still counteracts the eikonal instability but
without over-regularizing. Furthermore, since stability is now guaranteed in
the continuum limit, this stabilization also allows for considering new network
structures that are able to represent finer shape detail. We introduce such a
structure based on quadratic layers. Experiments on multiple benchmark data
sets show that our new regularization and network are able to capture more
precise shape details and more accurate topology than existing
state-of-the-art.
- Abstract(参考訳): 形態の暗黙的神経表現(INR)を学習するための新しい知見と新しいパラダイム(StEik)を提案する。
特に,INRに符号付き距離関数制約を課すのによく使われるエイコナール損失に光を当てた。
ネットワークの表現力が増加するにつれて、最適化は連続極限における偏微分方程式(PDE)に近づき、不安定となることを示す。
この不安定性は, 既設のネットワーク最適化において発現し, 再構成表面の不規則性や, 局所的局所最小値への収束を招き, 微妙な幾何学的・位相的構造を捉えることができないことを示す。
我々は、現在文献で使われている損失に付加された他の用語が、実際にこれらの不安定性を排除することができるかを分析的に示す。
しかし、そのような用語は表面を過度に規則化することができ、微細な形状の表現を妨げている。
同様の連続体極限のpde理論に基づき、固有不安定性は相反するが過剰正規化はしない新しい正規化項を導入する。
さらに, 安定度は連続限界で保証されているため, この安定化により, より微細な形状の細部を表現できる新しいネットワーク構造も検討できる。
このような構造を二次層に導入する。
複数のベンチマークデータセットの実験により、我々の新しい正規化とネットワークは、既存の最先端技術よりも正確な形状の詳細と正確なトポロジを捉えることができることが示された。
関連論文リスト
- Point Cloud Denoising With Fine-Granularity Dynamic Graph Convolutional Networks [58.050130177241186]
ノイズの摂動は、しばしば3次元の点雲を破損させ、表面の再構成、レンダリング、さらなる処理といった下流のタスクを妨げる。
本稿では,GDGCNと呼ばれる粒度動的グラフ畳み込みネットワークについて紹介する。
論文 参考訳(メタデータ) (2024-11-21T14:19:32Z) - Edge of stability echo state networks [5.888495030452654]
Echo State Networks (ESN) は、Echo State Property (ESP) の原則の下で動作する時系列処理モデルである。
We introduced a new ESN architecture, the Edge of stability Echo State Network (ES$2$N)
論文 参考訳(メタデータ) (2023-08-05T15:49:25Z) - Neural Delay Differential Equations: System Reconstruction and Image
Classification [14.59919398960571]
我々はニューラル遅延微分方程式 (Neural Delay Differential Equations, NDDEs) という,遅延を伴う連続深度ニューラルネットワークの新しいクラスを提案する。
NODE と比較して、NDDE はより強い非線形表現能力を持つ。
我々は、合成されたデータだけでなく、よく知られた画像データセットであるCIFAR10に対しても、損失の低減と精度の向上を実現している。
論文 参考訳(メタデータ) (2023-04-11T16:09:28Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - A PDE-based Explanation of Extreme Numerical Sensitivities and Edge of Stability in Training Neural Networks [12.355137704908042]
勾配降下型深層ネットワーク(SGD)の現在の訓練実践における抑制的数値不安定性を示す。
我々は、偏微分方程式(PDE)の数値解析を用いて理論的枠組みを提示し、畳み込みニューラルネットワーク(CNN)の勾配降下PDEを分析する。
これはCNNの降下に伴う非線形PDEの結果であり、離散化のステップサイズを過度に運転すると局所線形化が変化し、安定化効果がもたらされることを示す。
論文 参考訳(メタデータ) (2022-06-04T14:54:05Z) - Extended Unconstrained Features Model for Exploring Deep Neural Collapse [59.59039125375527]
近年、ディープニューラルネットワークで「神経崩壊」(NC)と呼ばれる現象が経験的に観察されている。
最近の論文は、単純化された「制約なし特徴モデル」を最適化する際に、この構造を持つ最小化器が出現することを示している。
本稿では, 正規化MSE損失に対するUDFについて検討し, クロスエントロピーの場合よりも最小化器の特徴がより構造化可能であることを示す。
論文 参考訳(メタデータ) (2022-02-16T14:17:37Z) - Stabilizing Equilibrium Models by Jacobian Regularization [151.78151873928027]
ディープ均衡ネットワーク(Deep equilibrium Network, DEQs)は、単一非線形層の固定点を見つけるために従来の深さを推定する新しいモデルのクラスである。
本稿では、平衡モデルの学習を安定させるために、固定点更新方程式のヤコビアンを明示的に正規化するDECモデルの正規化スキームを提案する。
この正規化は計算コストを最小限に抑え、前方と後方の両方の固定点収束を著しく安定化させ、高次元の現実的な領域に順応することを示した。
論文 参考訳(メタデータ) (2021-06-28T00:14:11Z) - Phase Transitions, Distance Functions, and Implicit Neural
Representations [26.633795221150475]
Inlicit Neural Representations (INRs) は幾何学的深層学習と3次元視覚において多くの下流の応用に役立っている。
ログ変換は距離関数に収束する一方、適切な占有関数に収束する密度関数を学習するINRの訓練における損失を提案する。
論文 参考訳(メタデータ) (2021-06-14T18:13:45Z) - On the Stability Properties and the Optimization Landscape of Training
Problems with Squared Loss for Neural Networks and General Nonlinear Conic
Approximation Schemes [0.0]
ニューラルネットワークと一般的な非線形円錐近似スキームの2乗損失を伴うトレーニング問題の最適化景観と安定性特性について検討する。
これらの不安定性に寄与する同じ効果が、サドル点や急激な局所ミニマの出現の原因でもあることを証明している。
論文 参考訳(メタデータ) (2020-11-06T11:34:59Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。