論文の概要: Deep Point-to-Plane Registration by Efficient Backpropagation for Error
Minimizing Function
- arxiv url: http://arxiv.org/abs/2207.06661v1
- Date: Thu, 14 Jul 2022 05:18:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 13:32:23.304634
- Title: Deep Point-to-Plane Registration by Efficient Backpropagation for Error
Minimizing Function
- Title(参考訳): 誤差最小化関数のための効率的なバックプロパゲーションによる深部点対平面登録
- Authors: Tatsuya Yatagawa and Yutaka Ohtake and Hiromasa Suzuki
- Abstract要約: 点集合登録の伝統的なアルゴリズムは、点から点までの距離を最小化するアルゴリズムよりも、剛性変換をより正確に推定する。
近年の深層学習に基づく手法はポイント・ツー・ポイント距離を最小化している。
本論文は,平面間登録における深層学習に基づく最初のアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional algorithms of point set registration minimizing point-to-plane
distances often achieve a better estimation of rigid transformation than those
minimizing point-to-point distances. Nevertheless, recent deep-learning-based
methods minimize the point-to-point distances. In contrast to these methods,
this paper proposes the first deep-learning-based approach to point-to-plane
registration. A challenging part of this problem is that a typical solution for
point-to-plane registration requires an iterative process of accumulating small
transformations obtained by minimizing a linearized energy function. The
iteration significantly increases the size of the computation graph needed for
backpropagation and can slow down both forward and backward network
evaluations. To solve this problem, we consider the estimated rigid
transformation as a function of input point clouds and derive its analytic
gradients using the implicit function theorem. The analytic gradient that we
introduce is independent of how the error minimizing function (i.e., the rigid
transformation) is obtained, thus allowing us to calculate both the rigid
transformation and its gradient efficiently. We implement the proposed
point-to-plane registration module over several previous methods that minimize
point-to-point distances and demonstrate that the extensions outperform the
base methods even with point clouds with noise and low-quality point normals
estimated with local point distributions.
- Abstract(参考訳): 点間距離を最小化する点集合登録の伝統的なアルゴリズムは、点間距離を最小化する点間距離よりも剛性変換をより正確に推定する。
しかし、近年のディープラーニングに基づく手法は、ポイント・ツー・ポイント距離を最小化している。
これらの手法とは対照的に,本研究では,平面間登録における深層学習に基づく最初のアプローチを提案する。
この問題の難しい部分は、点対平面登録の典型的な解は、線形エネルギー関数を最小化することによって得られる小さな変換を蓄積する反復的な過程を必要とすることである。
この反復はバックプロパゲーションに必要な計算グラフのサイズを大幅に増加させ、前方および後方のネットワーク評価を遅くする可能性がある。
この問題を解決するために、推定された剛性変換を入力点雲の関数とみなし、暗黙の関数定理を用いて解析勾配を導出する。
私たちが導入する解析的勾配は、誤差最小化関数(すなわち剛性変換)の取得方法とは無関係なので、剛性変換とその勾配を効率的に計算することができる。
提案手法は,各点間距離の最小化を図り,局所的な点分布を推定した低品質の点群とノイズのある点群であっても,基本手法よりも優れていることを示す。
関連論文リスト
- Efficient Low-rank Identification via Accelerated Iteratively Reweighted Nuclear Norm Minimization [8.879403568685499]
パラメータの平滑化に適応的な更新戦略を導入する。
この振る舞いは、アルゴリズムを数回繰り返した後に、効果的に問題を解決するものに変えます。
すべてのイテレーションが重要なものであることを保証し、グローバルに提案された実験を証明します。
論文 参考訳(メタデータ) (2024-06-22T02:37:13Z) - SPARE: Symmetrized Point-to-Plane Distance for Robust Non-Rigid Registration [76.40993825836222]
本研究では,SPAREを提案する。SPAREは,非剛性登録のための対称化点-平面間距離を用いた新しい定式化である。
提案手法は, 厳密でない登録問題の精度を大幅に向上し, 比較的高い解効率を維持する。
論文 参考訳(メタデータ) (2024-05-30T15:55:04Z) - Variable Substitution and Bilinear Programming for Aligning Partially Overlapping Point Sets [48.1015832267945]
本研究では,RPMアルゴリズムの最小化目的関数を用いて要求を満たす手法を提案する。
分岐とバウンド(BnB)アルゴリズムが考案され、パラメータのみに分岐し、収束率を高める。
実験による評価は,非剛性変形,位置雑音,外れ値に対する提案手法の高剛性を示す。
論文 参考訳(メタデータ) (2024-05-14T13:28:57Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - How to escape sharp minima with random perturbations [48.095392390925745]
平らなミニマの概念とそれらを見つける複雑さについて研究する。
一般的なコスト関数に対して、近似平坦な局所最小値を求める勾配に基づくアルゴリズムについて論じる。
コスト関数がトレーニングデータよりも経験的リスクであるような環境では、シャープネス認識最小化と呼ばれる最近提案された実用的なアルゴリズムにインスパイアされたより高速なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-25T02:12:33Z) - Min-Max Optimization Made Simple: Approximating the Proximal Point
Method via Contraction Maps [77.8999425439444]
本稿では,凸/凹凸 min-max 問題に対して,ほぼ最適収束率を許容する一階法を提案する。
我々の研究は、近点法の更新規則を精度良く近似できるという事実に基づいている。
論文 参考訳(メタデータ) (2023-01-10T12:18:47Z) - Deep Learning Approximation of Diffeomorphisms via Linear-Control
Systems [91.3755431537592]
我々は、制御に線形に依存する$dot x = sum_i=1lF_i(x)u_i$という形の制御系を考える。
対応するフローを用いて、コンパクトな点のアンサンブル上の微分同相写像の作用を近似する。
論文 参考訳(メタデータ) (2021-10-24T08:57:46Z) - Resolving learning rates adaptively by locating Stochastic Non-Negative
Associated Gradient Projection Points using line searches [0.0]
ニューラルネットワークトレーニングにおける学習率は現在、高価なマニュアルや自動チューニングを使用したトレーニングの優先事項として決定されている。
本研究では,ニューラルネットワーク学習アルゴリズムの学習率を解くために,勾配のみの線探索を提案する。
論文 参考訳(メタデータ) (2020-01-15T03:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。