論文の概要: Scheduling the Off-Diagonal Weingarten Loss of Neural SDFs for CAD Models
- arxiv url: http://arxiv.org/abs/2511.03147v1
- Date: Wed, 05 Nov 2025 03:09:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.309505
- Title: Scheduling the Off-Diagonal Weingarten Loss of Neural SDFs for CAD Models
- Title(参考訳): CADモデルのためのニューラルSDFの非対角Weingarten損失のスケジューリング
- Authors: Haotian Yin, Przemyslaw Musialski,
- Abstract要約: 本稿では,オフ・ダイアゴナル・ウィンガルテン(ODW)損失に対するスケジューリング戦略について述べる。
提案手法は,FlatCADベースライン上でのChamfer Distanceの最大35%の改善を実現する。
- 参考スコア(独自算出の注目度): 0.8594140167290095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural signed distance functions (SDFs) have become a powerful representation for geometric reconstruction from point clouds, yet they often require both gradient- and curvature-based regularization to suppress spurious warp and preserve structural fidelity. FlatCAD introduced the Off-Diagonal Weingarten (ODW) loss as an efficient second-order prior for CAD surfaces, approximating full-Hessian regularization at roughly half the computational cost. However, FlatCAD applies a fixed ODW weight throughout training, which is suboptimal: strong regularization stabilizes early optimization but suppresses detail recovery in later stages. We present scheduling strategies for the ODW loss that assign a high initial weight to stabilize optimization and progressively decay it to permit fine-scale refinement. We investigate constant, linear, quintic, and step interpolation schedules, as well as an increasing warm-up variant. Experiments on the ABC CAD dataset demonstrate that time-varying schedules consistently outperform fixed weights. Our method achieves up to a 35% improvement in Chamfer Distance over the FlatCAD baseline, establishing scheduling as a simple yet effective extension of curvature regularization for robust CAD reconstruction.
- Abstract(参考訳): ニューラルサインされた距離関数(SDF)は点雲からの幾何学的再構成の強力な表現となっているが、しばしば急激なワープを抑制し、構造的忠実性を維持するために勾配と曲率に基づく正規化が必要である。
FlatCADはCAD表面の効率的な二階述語としてOff-Diagonal Weingarten (ODW)損失を導入し、フルヘッセン正規化を計算コストの約半分で近似した。
しかし、FlatCADはトレーニング全体を通して一定のODW重みを適用しており、これは準最適である: 強い正規化は早期最適化を安定化するが、後段の詳細な回復を抑制する。
本稿では,最適化を安定させるために初期重みを割り当てるODW損失のスケジューリング戦略について述べる。
本研究では, 定数, 線形, クインティック, ステップ補間スケジュール, 温暖化変動の増大について検討する。
ABC CADデータセットの実験では、時間変化のスケジュールが一定の重みを常に上回ることを示した。
提案手法はFlatCADベースライン上でのChamfer Distanceの改善を最大35%達成し,頑健なCAD再構成のための曲率正規化の簡易かつ効果的な拡張としてスケジューリングを確立する。
関連論文リスト
- PointNSP: Autoregressive 3D Point Cloud Generation with Next-Scale Level-of-Detail Prediction [87.33016661440202]
自動回帰ポイントクラウド生成は、長い間、拡散ベースの品質アプローチに遅れを取ってきた。
低解像度で大域的な形状を保った粗大な生成フレームワークであるPointNSPを提案する。
ShapeNetの実験によると、PointNSPは自己回帰パラダイムの中で初めて、最先端(SOTA)生成品質を確立している。
論文 参考訳(メタデータ) (2025-10-07T06:31:02Z) - FlatCAD: Fast Curvature Regularization of Neural SDFs for CAD Models [37.56003520528009]
混合形状演算子項のみを正則化する非対角Weingarten損失を導入する。
6つのSDF評価と1つの勾配を用いた有限差分版と1つのヘッセンベクトル積を用いた自動差分版である。
この手法はドロップインおよびフレームワーク非依存であり、工学的な形状復元のためのスケーラブルな曲率認識型SDF学習を可能にする。
論文 参考訳(メタデータ) (2025-06-19T21:54:08Z) - Evolutionary Caching to Accelerate Your Off-the-Shelf Diffusion Model [38.350123625613804]
拡散に基づく画像生成モデルは高品質な合成コンテンツを生成するのに優れているが、遅くて計算コストのかかる推論に悩まされている。
本稿では,効率的なモデルごとのキャッシュスケジュールを学習する遺伝的アルゴリズムであるECAD(Evolutionary Caching to Accelerate Diffusion Model)を提案する。
ECADは、大きな推論スピードアップを提供し、品質-遅延トレードオフのきめ細かい制御を可能にし、異なる拡散モデルにシームレスに適応する。
論文 参考訳(メタデータ) (2025-06-18T17:59:50Z) - CReFT-CAD: Boosting Orthographic Projection Reasoning for CAD via Reinforcement Fine-Tuning [31.342222156939403]
本稿では,2段階の微調整パラダイムであるCReFT-CADを紹介する。
われわれはTriView2CADをリリースした。
論文 参考訳(メタデータ) (2025-05-31T13:52:56Z) - PS-CAD: Local Geometry Guidance via Prompting and Selection for CAD Reconstruction [86.726941702182]
再構成ネットワークPS-CADに幾何学的ガイダンスを導入する。
我々は、現在の再構成が点雲としての完備モデルと異なる曲面の幾何学を提供する。
第二に、幾何学的解析を用いて、候補面に対応する平面的プロンプトの集合を抽出する。
論文 参考訳(メタデータ) (2024-05-24T03:43:55Z) - NeurCADRecon: Neural Representation for Reconstructing CAD Surfaces by Enforcing Zero Gaussian Curvature [42.39976072777987]
低品質の無向点雲からのCADモデルの高忠実化は依然として大きな課題である。
本稿では,CADモデルの表面が概ね断片的な表面パッチで構成されているという先行的な観察に基づいて,この問題に対処する。
我々のアプローチはNeurCADReconと呼ばれており、その損失にはガウス曲率を0。
論文 参考訳(メタデータ) (2024-04-20T16:36:24Z) - Image Reconstruction via Deep Image Prior Subspaces [0.18472148461613155]
ディープラーニングは画像再構成タスクの解決に広く利用されているが、高品質なトレーニングデータが不足しているため、そのデプロイ性は後退している。
本稿では、DIP最適化をパラメータの疎線型部分空間に制限することにより、これらの問題に対処する新しい手法を提案する。
部分空間の低次元性は、DIPのノイズに適合する傾向を減少させ、安定な2階最適化法を可能にする。
論文 参考訳(メタデータ) (2023-02-20T20:19:36Z) - Deep Equilibrium Optical Flow Estimation [80.80992684796566]
最近のSOTA(State-of-the-art)光フローモデルでは、従来のアルゴリズムをエミュレートするために有限ステップの更新操作を使用する。
これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するために直接訓練されていない。
暗黙的層の無限レベル固定点として直接流れを解く手法として,Deep equilibrium Flow estimatorを提案する。
論文 参考訳(メタデータ) (2022-04-18T17:53:44Z) - Distributed stochastic optimization with large delays [59.95552973784946]
大規模最適化問題を解決する最も広く使われている手法の1つは、分散非同期勾配勾配(DASGD)である。
DASGDは同じ遅延仮定の下で大域的最適実装モデルに収束することを示す。
論文 参考訳(メタデータ) (2021-07-06T21:59:49Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。