論文の概要: Neural Shortest Path for Surface Reconstruction from Point Clouds
- arxiv url: http://arxiv.org/abs/2502.06047v1
- Date: Sun, 09 Feb 2025 22:01:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:30:39.094791
- Title: Neural Shortest Path for Surface Reconstruction from Point Clouds
- Title(参考訳): 点群からの表面再構成のためのニューラル・ショートパス
- Authors: Yesom Park, Imseong Park, Jooyoung Hahn, Myungjoo Kang,
- Abstract要約: 距離関数とその勾配を近似したベクトル値の暗黙的ニューラル表現(INR)であるニューラル・ショート・パス(NSP)を提案する。
NSPをその大きさと方向に分解し、各分解成分が距離関数とその勾配を近似する可変分割法を用いる。
NSP の分解表現は、$H1$ノルムにおける NSP の大きさの収束を保証することを証明している。
- 参考スコア(独自算出の注目度): 4.8792835969814945
- License:
- Abstract: In this paper, we propose the neural shortest path (NSP), a vector-valued implicit neural representation (INR) that approximates a distance function and its gradient. The key feature of NSP is to learn the exact shortest path (ESP), which directs an arbitrary point to its nearest point on the target surface. The NSP is decomposed into its magnitude and direction, and a variable splitting method is used that each decomposed component approximates a distance function and its gradient, respectively. Unlike to existing methods of learning the distance function itself, the NSP ensures the simultaneous recovery of the distance function and its gradient. We mathematically prove that the decomposed representation of NSP guarantees the convergence of the magnitude of NSP in the $H^1$ norm. Furthermore, we devise a novel loss function that enforces the property of ESP, demonstrating that its global minimum is the ESP. We evaluate the performance of the NSP through comprehensive experiments on diverse datasets, validating its capacity to reconstruct high-quality surfaces with the robustness to noise and data sparsity. The numerical results show substantial improvements over state-of-the-art methods, highlighting the importance of learning the ESP, the product of distance function and its gradient, for representing a wide variety of complex surfaces.
- Abstract(参考訳): 本稿では,距離関数とその勾配を近似したベクトル値暗黙的ニューラル表現(INR)であるニューラル・ショート・パス(NSP)を提案する。
NSPの重要な特徴は、ターゲット表面の最も近い点に任意の点を向ける、正確な最短経路(ESP)を学ぶことである。
NSPをその大きさと方向に分解し、各分解成分がそれぞれ距離関数とその勾配を近似する可変分割法を用いる。
距離関数自体を学習する既存の方法とは異なり、NSPは距離関数とその勾配の同時回復を保証する。
数学的に NSP の分解表現は、$H^1$ノルムにおける NSP の大きさの収束を保証することを証明している。
さらに,ESPの特性を強制する新たな損失関数を考案し,その大域的最小値がESPであることを実証した。
各種データセットの総合的な実験を通じてNSPの性能を評価し,ノイズやデータ空間に頑健さを伴って高品質な表面を再構築する能力を検証する。
その結果,多種多様な複素曲面を表現するためにESP,距離関数の積,勾配を学習することの重要性が示された。
関連論文リスト
- A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Feature Mapping in Physics-Informed Neural Networks (PINNs) [1.9819034119774483]
本研究では, Conjugate Kernel と Neural Tangent Kernel を限定した特徴マッピング層を用いた PINN の訓練力学について検討する。
より優れた代替として,条件付き正定値ラジアル基底関数を提案する。
論文 参考訳(メタデータ) (2024-02-10T13:51:09Z) - Neural-Singular-Hessian: Implicit Neural Representation of Unoriented
Point Clouds by Enforcing Singular Hessian [44.28251558359345]
我々は点雲から表面を再構築するための新しいアプローチを提案する。
提案手法は, 表面近傍の点と表面の射影点との勾配を整列し, わずか数回の反復で粗いが忠実な形状となる。
論文 参考訳(メタデータ) (2023-09-04T20:10:38Z) - CAP-UDF: Learning Unsigned Distance Functions Progressively from Raw Point Clouds with Consistency-Aware Field Optimization [54.69408516025872]
CAP-UDFは、生の点雲から一貫性を考慮したUDFを学ぶための新しい方法である。
我々は、クエリと近似曲面の関係を徐々に推測するようにニューラルネットワークを訓練する。
学習されたUDFの勾配を用いて表面を抽出する多角化アルゴリズムも導入する。
論文 参考訳(メタデータ) (2022-10-06T08:51:08Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Level set learning with pseudo-reversible neural networks for nonlinear
dimension reduction in function approximation [8.28646586439284]
本稿では,関数近似のための学習レベルセット(DRiLLS)を用いた次元削減手法を提案する。
提案手法は,高次元の入力変数を高次元のアクティブ変数に効果的に変換する擬似可逆ニューラルネットワーク(PRNN)モジュールである。
PRNNは、RevNetの使用によりNLL法に存在する非線形変換の可逆性制約を緩和するだけでなく、各サンプルの影響を適応的に重み付けし、学習された能動変数に対する関数の感度を制御する。
論文 参考訳(メタデータ) (2021-12-02T17:25:34Z) - Scaling Neural Tangent Kernels via Sketching and Random Features [53.57615759435126]
最近の研究報告では、NTKレグレッションは、小規模データセットでトレーニングされた有限範囲のニューラルネットワークより優れている。
我々は、アークコサインカーネルの拡張をスケッチして、NTKの近距離入力スパーシティ時間近似アルゴリズムを設計する。
CNTKの特徴をトレーニングした線形回帰器が,CIFAR-10データセット上での正確なCNTKの精度と150倍の高速化を実現していることを示す。
論文 参考訳(メタデータ) (2021-06-15T04:44:52Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Neural-Pull: Learning Signed Distance Functions from Point Clouds by
Learning to Pull Space onto Surfaces [68.12457459590921]
3次元点雲から連続曲面を再構成することは、3次元幾何処理の基本的な操作である。
textitNeural-Pullは、シンプルで高品質なSDFを実現する新しいアプローチです。
論文 参考訳(メタデータ) (2020-11-26T23:18:10Z) - Learning Occupancy Function from Point Clouds for Surface Reconstruction [6.85316573653194]
表面から採取した点雲から3次元形状を復元するために, 入射関数に基づく表面再構成が長い間研究されてきた。
本稿では,スパース点雲から占有関数を学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-22T02:07:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。