論文の概要: HotSpot: Screened Poisson Equation for Signed Distance Function Optimization
- arxiv url: http://arxiv.org/abs/2411.14628v1
- Date: Thu, 21 Nov 2024 23:06:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-25 15:03:53.242748
- Title: HotSpot: Screened Poisson Equation for Signed Distance Function Optimization
- Title(参考訳): HotSpot: 符号付き距離関数最適化のためのスクリーニングポアソン方程式
- Authors: Zimo Wang, Cheng Wang, Taiki Yoshino, Sirui Tao, Ziyang Fu, Tzu-Mao Li,
- Abstract要約: 本稿では,ニューラルサイン付き距離関数を最適化するためのHotSpotを提案する。
エイコナルロスのような既存の損失は、復元された暗黙関数が距離関数であることを保証できない。
提案手法は,より優れた表面再構成と高精度な距離近似を実現する。
- 参考スコア(独自算出の注目度): 8.928859044622133
- License:
- Abstract: We propose a method, HotSpot, for optimizing neural signed distance functions, based on a relation between the solution of a screened Poisson equation and the distance function. Existing losses such as the eikonal loss cannot guarantee the recovered implicit function to be a distance function, even when the implicit function satisfies the eikonal equation almost everywhere. Furthermore, the eikonal loss suffers from stability issues in optimization and the remedies that introduce area or divergence minimization can lead to oversmoothing. We address these challenges by designing a loss function that when minimized can converge to the true distance function, is stable, and naturally penalize large surface area. We provide theoretical analysis and experiments on both challenging 2D and 3D datasets and show that our method provide better surface reconstruction and more accurate distance approximation.
- Abstract(参考訳): 本稿では,スクリーニングされたポアソン方程式の解と距離関数の関係に基づいて,ニューラルサイン付き距離関数を最適化するHotSpotを提案する。
エイコナル損失のような既存の損失は、暗黙関数がほとんど至る所でアイコナル方程式を満たす場合でも、復元された暗黙関数が距離関数であることを保証できない。
さらに、エイコナルロスは最適化における安定性の問題に悩まされ、領域の導入や分散化の最小化が過度なスムース化につながる可能性がある。
損失関数を最小化すれば、真の距離関数に収束し、安定であり、また、大きな表面積をペナルティ化できるような損失関数を設計することで、これらの課題に対処する。
課題2次元と3次元の両方のデータセットに関する理論的解析と実験を行い、より優れた表面再構成とより正確な距離近似を提供することを示す。
関連論文リスト
- Trust-Region Sequential Quadratic Programming for Stochastic Optimization with Random Models [57.52124921268249]
本稿では,1次と2次の両方の定常点を見つけるための信頼逐次準計画法を提案する。
本手法は, 1次定常点に収束するため, 対象対象の近似を最小化して定義された各イテレーションの勾配ステップを計算する。
2階定常点に収束するため,本手法は負曲率を減少するヘッセン行列を探索する固有ステップも計算する。
論文 参考訳(メタデータ) (2024-09-24T04:39:47Z) - Stochastic First-Order Methods with Non-smooth and Non-Euclidean Proximal Terms for Nonconvex High-Dimensional Stochastic Optimization [2.0657831823662574]
非問題が非問題である場合、一階法のサンプルは問題次元に線形に依存することがあるが、望ましくない問題に対するものである。
我々のアルゴリズムは距離を使って複雑さを見積もることができる。
MathO (log d) / EuM4。
DISFOM は $mathO (log d) / EuM4 を用いて分散を鋭くすることができることを示す。
論文 参考訳(メタデータ) (2024-06-27T18:38:42Z) - 1-Lipschitz Neural Distance Fields [0.0]
対象物の符号付き距離関数を近似する新しい手法を提案する。
我々は,平面あるいは空間内の任意の閉曲面あるいは開曲面の距離関数を近似することができることを示した。
論文 参考訳(メタデータ) (2024-06-14T11:56:36Z) - Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Approximation Theory, Computing, and Deep Learning on the Wasserstein Space [0.5735035463793009]
有限標本からの無限次元空間における近似関数の挑戦に対処する。
我々の焦点はワッサーシュタイン距離関数であり、これは関連する例である。
機能近似を定義するために,機械学習に基づく3つのアプローチを採用する。
論文 参考訳(メタデータ) (2023-10-30T13:59:47Z) - The Implicit Bias of Minima Stability in Multivariate Shallow ReLU
Networks [53.95175206863992]
本研究では,2次損失を持つ1層多変量ReLUネットワークをトレーニングする際に,勾配勾配勾配が収束する解のタイプについて検討する。
我々は、浅いReLUネットワークが普遍近似器であるにもかかわらず、安定した浅層ネットワークは存在しないことを証明した。
論文 参考訳(メタデータ) (2023-06-30T09:17:39Z) - On Solution Functions of Optimization: Universal Approximation and
Covering Number Bounds [6.3291148076593355]
線形目標性(1)(LP)と近似可能なQP近似パワーの凸最適化関数解関数の表現可能性について検討する。
この結果から,制約付きプログラミングの特性の厳密な解析と,アルゴリズム設計や性能保証への示唆が得られた。
論文 参考訳(メタデータ) (2022-12-02T17:16:04Z) - Optimal oracle inequalities for solving projected fixed-point equations [53.31620399640334]
ヒルベルト空間の既知の低次元部分空間を探索することにより、確率観測の集合を用いて近似解を計算する手法を検討する。
本稿では,線形関数近似を用いた政策評価問題に対する時間差分学習手法の誤差を正確に評価する方法について述べる。
論文 参考訳(メタデータ) (2020-12-09T20:19:32Z) - Deep learning algorithms for solving high dimensional nonlinear backward
stochastic differential equations [1.8655840060559168]
我々は高次元非線形後方微分方程式(BSDEs)を解くためのディープラーニングに基づく新しいスキームを提案する。
我々は、ディープニューラルネットワークを用いたBSDEの未知解と、その勾配を自動微分で近似する。
提案アルゴリズムの性能を示すために,ファイナンスにおける価格問題を含む非線形BSDEについて述べる。
論文 参考訳(メタデータ) (2020-10-03T10:18:58Z) - Piecewise Linear Regression via a Difference of Convex Functions [50.89452535187813]
本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
論文 参考訳(メタデータ) (2020-07-05T18:58:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。