論文の概要: FlatCAD: Fast Curvature Regularization of Neural SDFs for CAD Models
- arxiv url: http://arxiv.org/abs/2506.16627v2
- Date: Sun, 24 Aug 2025 19:14:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 14:31:50.744403
- Title: FlatCAD: Fast Curvature Regularization of Neural SDFs for CAD Models
- Title(参考訳): FlatCAD:CADモデルのためのニューラルSDFの高速曲率正規化
- Authors: Haotian Yin, Aleksander Plocharski, Michal Jan Wlodarczyk, Mikolaj Kida, Przemyslaw Musialski,
- Abstract要約: 混合形状演算子項のみを正則化する非対角Weingarten損失を導入する。
6つのSDF評価と1つの勾配を用いた有限差分版と1つのヘッセンベクトル積を用いた自動差分版である。
この手法はドロップインおよびフレームワーク非依存であり、工学的な形状復元のためのスケーラブルな曲率認識型SDF学習を可能にする。
- 参考スコア(独自算出の注目度): 37.56003520528009
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural signed-distance fields (SDFs) are a versatile backbone for neural geometry representation, but enforcing CAD-style developability usually requires Gaussian-curvature penalties with full Hessian evaluation and second-order differentiation, which are costly in memory and time. We introduce an off-diagonal Weingarten loss that regularizes only the mixed shape operator term that represents the gap between principal curvatures and flattens the surface. We present two variants: a finite-difference version using six SDF evaluations plus one gradient, and an auto-diff version using a single Hessian-vector product. Both converge to the exact mixed term and preserve the intended geometric properties without assembling the full Hessian. On the ABC benchmarks the losses match or exceed Hessian-based baselines while cutting GPU memory and training time by roughly a factor of two. The method is drop-in and framework-agnostic, enabling scalable curvature-aware SDF learning for engineering-grade shape reconstruction. Our code is available at https://flatcad.github.io/.
- Abstract(参考訳): ニューラルサイン-距離場(英: Neural signed-distance field, SDF)は、ニューラルジオメトリ表現のための汎用的なバックボーンであるが、CADスタイルの開発には、通常、フルヘッセン評価と2階微分を伴うガウス曲率のペナルティが必要であり、メモリと時間にコストがかかる。
主曲率間のギャップを表す混合形状演算子項のみを正規化し,表面を平坦化する非対角Weingarten損失を導入する。
6つのSDF評価と1つの勾配を用いた有限差分版と1つのヘッセンベクトル積を用いた自動差分版である。
どちらも正確な混合項に収束し、完全なヘッセンを組み立てることなく意図された幾何学的性質を保存する。
ABCベンチマークでは、損失はHessianベースのベースラインに一致または超え、GPUメモリとトレーニング時間を約2倍に削減する。
この手法はドロップインおよびフレームワーク非依存であり、工学的な形状復元のためのスケーラブルな曲率認識型SDF学習を可能にする。
私たちのコードはhttps://flatcad.github.io/.com/で公開されています。
関連論文リスト
- Curve-Aware Gaussian Splatting for 3D Parametric Curve Reconstruction [14.628742412460346]
本稿では,多視点エッジマップから直接3次元パラメトリック曲線を再構成するためのエンドツーエンドフレームワークを提案する。
パラメトリック曲線とエッジ指向ガウス成分の双方向結合機構を提案する。
提案手法は,既存の手法に比べて高い効率と優れた性能を達成し,トレーニング中のパラメータ数を著しく削減する。
論文 参考訳(メタデータ) (2025-06-26T15:48:08Z) - Enabling Automatic Differentiation with Mollified Graph Neural Operators [75.3183193262225]
本稿では,任意の測地上での自動微分とエンフェクサクタクティック勾配を計算するための最初の手法であるモリファイドグラフニューラル演算子 (mGNO) を提案する。
正規格子上のPDEの例では、mGNOとオートグレードの組み合わせにより、L2相対データの誤差は有限差に比べて20倍減少した。
また、物理損失のみを使用し、有限差分に必要な分解能よりもはるかに低い精度で、非構造化点雲上のPDEをシームレスに解くことができる。
論文 参考訳(メタデータ) (2025-04-11T06:16:30Z) - Global $\mathcal{L}^2$ minimization at uniform exponential rate via geometrically adapted gradient descent in Deep Learning [1.4050802766699084]
本稿では,ディープラーニング(DL)ネットワークにおける教師あり学習のシナリオについて考察する。
DLネットワークの出力層におけるユークリッド計量に対する勾配流を選択する。
論文 参考訳(メタデータ) (2023-11-27T02:12:02Z) - Deep Declarative Dynamic Time Warping for End-to-End Learning of
Alignment Paths [54.53208538517505]
本稿では、動的時間ワープ(DTW)による時間的アライメントステップを含む時系列データのエンドツーエンド学習モデルについて述べる。
そこで我々は,2レベル最適化とDecDTWと呼ばれる深層宣言ネットワークに基づくDTW層を提案する。
この特性は、下流損失関数が最適アライメントパス自身で定義されるアプリケーションに特に有用であることを示す。
論文 参考訳(メタデータ) (2023-03-19T21:58:37Z) - Reconstructing editable prismatic CAD from rounded voxel models [16.03976415868563]
この課題を解決するために,新しいニューラルネットワークアーキテクチャを導入する。
本手法は形状を分解することでボクセル空間の入力幾何を再構成する。
推論の際には,まず2次元制約付きスケッチのデータベースを検索し,CADデータを取得する。
論文 参考訳(メタデータ) (2022-09-02T16:44:10Z) - Error-Correcting Neural Networks for Two-Dimensional Curvature
Computation in the Level-Set Method [0.0]
本稿では,2次元曲率をレベルセット法で近似するための誤差ニューラルモデルに基づく手法を提案する。
我々の主な貢献は、需要に応じて機械学習操作を可能にする数値スキームに依存する、再設計されたハイブリッド・ソルバである。
論文 参考訳(メタデータ) (2022-01-22T05:14:40Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - Implicit Bias of Gradient Descent for Mean Squared Error Regression with
Two-Layer Wide Neural Networks [1.3706331473063877]
幅$n$浅いReLUネットワークをトレーニングする解は、トレーニングデータに適合する関数の$n-1/2$以内であることを示す。
また, トレーニング軌道はスムーズなスプラインの軌道によって捕捉され, 正規化強度は低下することを示した。
論文 参考訳(メタデータ) (2020-06-12T17:46:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。