論文の概要: A Finite Difference Approximation of Second Order Regularization of Neural-SDFs
- arxiv url: http://arxiv.org/abs/2511.08980v1
- Date: Thu, 13 Nov 2025 01:23:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.336807
- Title: A Finite Difference Approximation of Second Order Regularization of Neural-SDFs
- Title(参考訳): ニューラルネットワークSDFの2次規則化の有限差分近似
- Authors: Haotian Yin, Aleksander Plocharski, Michal Jan Wlodarczyk, Przemyslaw Musialski,
- Abstract要約: 本稿では,ニューラルネットワーク距離場(SDF)学習における曲率正規化のための有限差分フレームワークを提案する。
実験により、我々の有限差分変異は、その自動微分に匹敵する再現忠実性を達成することが示された。
- 参考スコア(独自算出の注目度): 39.799207552858114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a finite-difference framework for curvature regularization in neural signed distance field (SDF) learning. Existing approaches enforce curvature priors using full Hessian information obtained via second-order automatic differentiation, which is accurate but computationally expensive. Others reduced this overhead by avoiding explicit Hessian assembly, but still required higher-order differentiation. In contrast, our method replaces these operations with lightweight finite-difference stencils that approximate second derivatives using the well known Taylor expansion with a truncation error of O(h^2), and can serve as drop-in replacements for Gaussian curvature and rank-deficiency losses. Experiments demonstrate that our finite-difference variants achieve reconstruction fidelity comparable to their automatic-differentiation counterparts, while reducing GPU memory usage and training time by up to a factor of two. Additional tests on sparse, incomplete, and non-CAD data confirm that the proposed formulation is robust and general, offering an efficient and scalable alternative for curvature-aware SDF learning.
- Abstract(参考訳): 本稿では,ニューラルネットワーク距離場(SDF)学習における曲率正規化のための有限差分フレームワークを提案する。
既存の手法では、精度は高いが計算コストのかかる2階自動微分によって得られる全ヘッセン情報を用いて曲率を強制する。
明示的なヘッセン集合を避けることでこのオーバーヘッドを減らしたが、それでも高階微分が必要であった。
対照的に、本手法は、よく知られたテイラー展開を用いた2次微分をO(h^2)のトランケーション誤差で近似する軽量有限差分ステンシルに置き換え、ガウス曲率とランク欠陥損失のドロップイン置換として機能する。
実験により、我々の有限差分変異は、自動微分に匹敵する再現忠実性を達成し、GPUメモリ使用率とトレーニング時間を最大2倍に短縮した。
スパースデータ、不完全データ、非CADデータに関する追加テストでは、提案された定式化が堅牢で汎用的であることを確認し、曲率を考慮したSDF学習のための効率的でスケーラブルな代替手段を提供する。
関連論文リスト
- FlatCAD: Fast Curvature Regularization of Neural SDFs for CAD Models [37.56003520528009]
混合形状演算子項のみを正則化する非対角Weingarten損失を導入する。
6つのSDF評価と1つの勾配を用いた有限差分版と1つのヘッセンベクトル積を用いた自動差分版である。
この手法はドロップインおよびフレームワーク非依存であり、工学的な形状復元のためのスケーラブルな曲率認識型SDF学習を可能にする。
論文 参考訳(メタデータ) (2025-06-19T21:54:08Z) - Effective Dimension Aware Fractional-Order Stochastic Gradient Descent for Convex Optimization Problems [2.5971517743176915]
データ駆動方式で分数指数を適応する2SED分数次勾配Descent (2SEDFOSGD)を提案する。
理論的には、この手法は、na"ive fractional SGD"で観察されるスラグや不安定な振る舞いを伴わない分数記憶の利点を保っている。
論文 参考訳(メタデータ) (2025-03-17T22:57:37Z) - Nonsmooth Implicit Differentiation: Deterministic and Stochastic Convergence Rates [34.81849268839475]
パラメトリックな非微分可縮写像の固定点の微分を効率的に計算する問題について検討する。
我々は、反復的分化(ITD)と近似的暗黙的分化(AID)の2つの一般的なアプローチを分析する。
我々はNSIDの収束率を確立し、スムーズな環境での最良の利用率を含む。
論文 参考訳(メタデータ) (2024-03-18T11:37:53Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Bridging Discrete and Backpropagation: Straight-Through and Beyond [62.46558842476455]
本稿では,離散潜在変数の生成に関わるパラメータの勾配を近似する新しい手法を提案する。
本稿では,Hunの手法とODEを解くための2次数値法を統合することで,2次精度を実現するReinMaxを提案する。
論文 参考訳(メタデータ) (2023-04-17T20:59:49Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Efficient Learning of Generative Models via Finite-Difference Score
Matching [111.55998083406134]
有限差分で任意の順序方向微分を効率的に近似する汎用戦略を提案する。
我々の近似は関数評価にのみ関係しており、これは並列で実行でき、勾配計算は行わない。
論文 参考訳(メタデータ) (2020-07-07T10:05:01Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。