論文の概要: Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation
- arxiv url: http://arxiv.org/abs/2309.09211v1
- Date: Sun, 17 Sep 2023 08:35:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 16:51:44.738941
- Title: Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation
- Title(参考訳): 定点正規推定のためのニューラルグラディエント学習と最適化
- Authors: Qing Li, Huifang Feng, Kanle Shi, Yi Fang, Yu-Shen Liu, Zhizhong Han
- Abstract要約: 本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
- 参考スコア(独自算出の注目度): 53.611206368815125
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose Neural Gradient Learning (NGL), a deep learning approach to learn
gradient vectors with consistent orientation from 3D point clouds for normal
estimation. It has excellent gradient approximation properties for the
underlying geometry of the data. We utilize a simple neural network to
parameterize the objective function to produce gradients at points using a
global implicit representation. However, the derived gradients usually drift
away from the ground-truth oriented normals due to the lack of local detail
descriptions. Therefore, we introduce Gradient Vector Optimization (GVO) to
learn an angular distance field based on local plane geometry to refine the
coarse gradient vectors. Finally, we formulate our method with a two-phase
pipeline of coarse estimation followed by refinement. Moreover, we integrate
two weighting functions, i.e., anisotropic kernel and inlier score, into the
optimization to improve the robust and detail-preserving performance. Our
method efficiently conducts global gradient approximation while achieving
better accuracy and generalization ability of local feature description. This
leads to a state-of-the-art normal estimator that is robust to noise, outliers
and point density variations. Extensive evaluations show that our method
outperforms previous works in both unoriented and oriented normal estimation on
widely used benchmarks. The source code and pre-trained models are available at
https://github.com/LeoQLi/NGLO.
- Abstract(参考訳): ニューラルグラデーション学習(ngl)は,3次元点群から一定の方向の勾配ベクトルを正規推定のために学習する深層学習手法である。
基礎となるデータの幾何に対して優れた勾配近似特性を持つ。
単純なニューラルネットワークを用いて目的関数をパラメータ化し,グローバルな暗黙表現を用いて点の勾配を生成する。
しかしながら、導出勾配は通常、局所的な詳細記述が欠如しているため、地道指向の正規から遠ざかっている。
そこで我々は,局所平面形状に基づく角距離場を学習し,粗い勾配ベクトルを改良するために,勾配ベクトル最適化(GVO)を導入する。
最後に, 2 相の粗さ推定パイプラインを用いて手法を定式化し, 改良した。
さらに,2つの重み付け関数,すなわち異方性カーネルと不整点を最適化に組み込んで,頑健かつ詳細な保存性能を向上する。
局所特徴記述の精度と一般化性を向上しつつ,グローバル勾配近似を効率的に行う。
これにより、ノイズや異常値、ポイント密度の変動に頑健な最先端の正規推定器が生まれる。
本手法は, 広範に使用されているベンチマークにおいて, 非指向性および指向性正規推定の両方において, 従来よりも優れた性能を示すことを示す。
ソースコードと事前学習されたモデルはhttps://github.com/leoqli/nglo.com/で入手できる。
関連論文リスト
- NeuralGF: Unsupervised Point Normal Estimation by Learning Neural
Gradient Function [55.86697795177619]
3次元点雲の正規推定は3次元幾何処理の基本的な課題である。
我々は,ニューラルネットワークが入力点雲に適合することを奨励する,ニューラルグラデーション関数の学習のための新しいパラダイムを導入する。
広範に使用されているベンチマークの優れた結果から,本手法は非指向性および指向性正常推定タスクにおいて,より正確な正規性を学習できることが示されている。
論文 参考訳(メタデータ) (2023-11-01T09:25:29Z) - Angle based dynamic learning rate for gradient descent [2.5077510176642805]
分類タスクにおける勾配に基づく降下法を適応的に学習する手法を提案する。
勾配に基づく項を期待することで適応学習率を選択する従来の手法の代わりに、現在の勾配と新しい勾配の間の角度を用いる。
提案手法は,ほとんどのデータセットにおいて,最も精度の高い手法であることがわかった。
論文 参考訳(メタデータ) (2023-04-20T16:55:56Z) - Implicit Bias in Leaky ReLU Networks Trained on High-Dimensional Data [63.34506218832164]
本研究では,ReLUを活性化した2層完全連結ニューラルネットワークにおける勾配流と勾配降下の暗黙的バイアスについて検討する。
勾配流には、均一なニューラルネットワークに対する暗黙のバイアスに関する最近の研究を活用し、リーク的に勾配流が2つ以上のランクを持つニューラルネットワークを生成することを示す。
勾配降下は, ランダムな分散が十分小さい場合, 勾配降下の1ステップでネットワークのランクが劇的に低下し, トレーニング中もランクが小さくなることを示す。
論文 参考訳(メタデータ) (2022-10-13T15:09:54Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - AdaDGS: An adaptive black-box optimization method with a nonlocal
directional Gaussian smoothing gradient [3.1546318469750196]
方向性ガウススムースティング(DGS)アプローチは(Zhang et al., 2020)で最近提案され、高次元ブラックボックス最適化のためにDGS勾配と呼ばれる真の非局所勾配を定義するために使用された。
DGSグラデーションを用いた簡易かつ創発的かつ効率的な最適化手法を提案し,超パラメータ微調整の必要性を排除した。
論文 参考訳(メタデータ) (2020-11-03T21:20:25Z) - Reparametrizing gradient descent [0.0]
本稿では,ノルム適応勾配勾配という最適化アルゴリズムを提案する。
我々のアルゴリズムは準ニュートン法と比較することもできるが、定常点ではなく根を求める。
論文 参考訳(メタデータ) (2020-10-09T20:22:29Z) - Channel-Directed Gradients for Optimization of Convolutional Neural
Networks [50.34913837546743]
本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:44:09Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。