論文の概要: Deep Point-to-Plane Registration by Efficient Backpropagation for Error
Minimizing Function
- arxiv url: http://arxiv.org/abs/2207.06661v1
- Date: Thu, 14 Jul 2022 05:18:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 13:32:23.304634
- Title: Deep Point-to-Plane Registration by Efficient Backpropagation for Error
Minimizing Function
- Title(参考訳): 誤差最小化関数のための効率的なバックプロパゲーションによる深部点対平面登録
- Authors: Tatsuya Yatagawa and Yutaka Ohtake and Hiromasa Suzuki
- Abstract要約: 点集合登録の伝統的なアルゴリズムは、点から点までの距離を最小化するアルゴリズムよりも、剛性変換をより正確に推定する。
近年の深層学習に基づく手法はポイント・ツー・ポイント距離を最小化している。
本論文は,平面間登録における深層学習に基づく最初のアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional algorithms of point set registration minimizing point-to-plane
distances often achieve a better estimation of rigid transformation than those
minimizing point-to-point distances. Nevertheless, recent deep-learning-based
methods minimize the point-to-point distances. In contrast to these methods,
this paper proposes the first deep-learning-based approach to point-to-plane
registration. A challenging part of this problem is that a typical solution for
point-to-plane registration requires an iterative process of accumulating small
transformations obtained by minimizing a linearized energy function. The
iteration significantly increases the size of the computation graph needed for
backpropagation and can slow down both forward and backward network
evaluations. To solve this problem, we consider the estimated rigid
transformation as a function of input point clouds and derive its analytic
gradients using the implicit function theorem. The analytic gradient that we
introduce is independent of how the error minimizing function (i.e., the rigid
transformation) is obtained, thus allowing us to calculate both the rigid
transformation and its gradient efficiently. We implement the proposed
point-to-plane registration module over several previous methods that minimize
point-to-point distances and demonstrate that the extensions outperform the
base methods even with point clouds with noise and low-quality point normals
estimated with local point distributions.
- Abstract(参考訳): 点間距離を最小化する点集合登録の伝統的なアルゴリズムは、点間距離を最小化する点間距離よりも剛性変換をより正確に推定する。
しかし、近年のディープラーニングに基づく手法は、ポイント・ツー・ポイント距離を最小化している。
これらの手法とは対照的に,本研究では,平面間登録における深層学習に基づく最初のアプローチを提案する。
この問題の難しい部分は、点対平面登録の典型的な解は、線形エネルギー関数を最小化することによって得られる小さな変換を蓄積する反復的な過程を必要とすることである。
この反復はバックプロパゲーションに必要な計算グラフのサイズを大幅に増加させ、前方および後方のネットワーク評価を遅くする可能性がある。
この問題を解決するために、推定された剛性変換を入力点雲の関数とみなし、暗黙の関数定理を用いて解析勾配を導出する。
私たちが導入する解析的勾配は、誤差最小化関数(すなわち剛性変換)の取得方法とは無関係なので、剛性変換とその勾配を効率的に計算することができる。
提案手法は,各点間距離の最小化を図り,局所的な点分布を推定した低品質の点群とノイズのある点群であっても,基本手法よりも優れていることを示す。
関連論文リスト
- Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - Parameter-free projected gradient descent [0.0]
我々は、射影勾配 Descent (PGD) を用いて、閉凸集合上の凸関数を最小化する問題を考える。
本稿では,AdaGradのパラメータフリーバージョンを提案する。これは初期化と最適化の距離に適応し,下位段階の平方ノルムの和に適応する。
提案アルゴリズムはプロジェクションステップを処理でき、リスタートを伴わず、従来のPGDと比較して軌道に沿ってリウィーディングや追加評価を行うことができる。
論文 参考訳(メタデータ) (2023-05-31T07:22:44Z) - Fast global convergence of gradient descent for low-rank matrix
approximation [3.8725717612267774]
我々は、特に小さなランダム値で達成された場合、勾配降下の急速な大域収束を証明した。
我々は,非対称行列近似問題に対処するために解析を拡張し,リトラクションフリーな固有空間計算法の有効性について検討する。
論文 参考訳(メタデータ) (2023-05-30T16:55:34Z) - How to escape sharp minima with random perturbations [54.05440117388505]
平らなミニマの概念とそれらを見つける複雑さについて研究する。
一般的なコスト関数に対して、近似平坦な局所最小値を求める勾配に基づくアルゴリズムについて論じる。
コスト関数がトレーニングデータよりも経験的リスクであるような環境では、シャープネス認識最小化と呼ばれる最近提案された実用的なアルゴリズムにインスパイアされたより高速なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-25T02:12:33Z) - The Novel Adaptive Fractional Order Gradient Decent Algorithms Design
via Robust Control [5.5491171448159715]
バニラ分数次降下は、目的関数が強く凸である場合には、正確な最小点に収束する代わりに、大域最小点の周りの領域に振動的に収束することがある。
この問題に対処するために,新しい適応分数次降下法 (AFDOG) と新しい分数次降下法 (AFOAGD) を提案する。
論文 参考訳(メタデータ) (2023-03-08T02:03:30Z) - Min-Max Optimization Made Simple: Approximating the Proximal Point
Method via Contraction Maps [77.8999425439444]
本稿では,凸/凹凸 min-max 問題に対して,ほぼ最適収束率を許容する一階法を提案する。
我々の研究は、近点法の更新規則を精度良く近似できるという事実に基づいている。
論文 参考訳(メタデータ) (2023-01-10T12:18:47Z) - Deep Learning Approximation of Diffeomorphisms via Linear-Control
Systems [91.3755431537592]
我々は、制御に線形に依存する$dot x = sum_i=1lF_i(x)u_i$という形の制御系を考える。
対応するフローを用いて、コンパクトな点のアンサンブル上の微分同相写像の作用を近似する。
論文 参考訳(メタデータ) (2021-10-24T08:57:46Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - Resolving learning rates adaptively by locating Stochastic Non-Negative
Associated Gradient Projection Points using line searches [0.0]
ニューラルネットワークトレーニングにおける学習率は現在、高価なマニュアルや自動チューニングを使用したトレーニングの優先事項として決定されている。
本研究では,ニューラルネットワーク学習アルゴリズムの学習率を解くために,勾配のみの線探索を提案する。
論文 参考訳(メタデータ) (2020-01-15T03:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。