論文の概要: A Revisit to the Normalized Eight-Point Algorithm and A Self-Supervised
Deep Solution
- arxiv url: http://arxiv.org/abs/2304.10771v1
- Date: Fri, 21 Apr 2023 06:41:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 15:39:49.360883
- Title: A Revisit to the Normalized Eight-Point Algorithm and A Self-Supervised
Deep Solution
- Title(参考訳): 正規化8点アルゴリズムと自己教師付き深解法の再検討
- Authors: Bin Fan, Yuchao Dai, Yongduek Seo, Mingyi He
- Abstract要約: 正規化された8点アルゴリズムを再検討し、より優れた正規化アルゴリズムが存在することを示す。
自己教師型学習戦略を正規化に適用した深層畳み込みニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 36.483349484106945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Normalized Eight-Point algorithm has been widely viewed as the
cornerstone in two-view geometry computation, where the seminal Hartley's
normalization greatly improves the performance of the direct linear
transformation (DLT) algorithm. A natural question is, whether there exists and
how to find other normalization methods that may further improve the
performance as per each input sample. In this paper, we provide a novel
perspective and make two contributions towards this fundamental problem: 1) We
revisit the normalized eight-point algorithm and make a theoretical
contribution by showing the existence of different and better normalization
algorithms; 2) We present a deep convolutional neural network with a
self-supervised learning strategy to the normalization. Given eight pairs of
correspondences, our network directly predicts the normalization matrices, thus
learning to normalize each input sample. Our learning-based normalization
module could be integrated with both traditional (e.g., RANSAC) and deep
learning framework (affording good interpretability) with minimal efforts.
Extensive experiments on both synthetic and real images show the effectiveness
of our proposed approach.
- Abstract(参考訳): 正規化八点アルゴリズムは、2次元幾何学計算の基盤として広く見なされており、半正規化は直線形変換(DLT)アルゴリズムの性能を大幅に向上させる。
自然な疑問は、入力サンプルごとにさらに性能を向上させるであろう他の正規化方法が存在するかどうかである。
本稿では、新しい視点を提供し、この根本的な問題に2つの貢献をする。
1) 正規化された8点アルゴリズムを再検討し, より優れた正規化アルゴリズムの存在を示すことによって理論的貢献を行う。
2) 自己教師型学習戦略を正規化に適用した深層畳み込みニューラルネットワークを提案する。
8対の対応が与えられると、ネットワークは正規化行列を直接予測し、各入力サンプルの正規化を学習する。
私たちの学習ベースの正規化モジュールは、最小限の努力で、従来の(例えば、RANSAC)とディープラーニングフレームワークの両方に統合できます。
合成画像と実画像の両方について広範な実験を行い,提案手法の有効性を示した。
関連論文リスト
- Bayesian Design Principles for Frequentist Sequential Learning [11.421942894219901]
逐次学習問題に対する頻繁な後悔を最適化する理論を開発する。
各ラウンドで「アルゴリズム的信念」を生成するための新しい最適化手法を提案する。
本稿では,マルチアームバンディットの「ベスト・オブ・オール・ワールド」な経験的性能を実現するための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-01T22:17:37Z) - A Compound Gaussian Least Squares Algorithm and Unrolled Network for
Linear Inverse Problems [1.283555556182245]
本稿では,線形逆問題に対する2つの新しいアプローチを提案する。
1つ目は、正規化された最小二乗目的関数を最小化する反復アルゴリズムである。
2つ目は、反復アルゴリズムの「アンロール」または「アンフォールディング」に対応するディープニューラルネットワークである。
論文 参考訳(メタデータ) (2023-05-18T17:05:09Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Learning Non-Vacuous Generalization Bounds from Optimization [8.294831479902658]
最適化の観点からは、単純だが空でない一般化を示す。
我々は、勾配アルゴリズムによってアクセスされた仮説セットが本質的にフラクタル的であることを利用して、この目標を達成する。
数値解析により,現代のニューラルネットワークにおいて,本手法が有意な一般化を保証することが実証された。
論文 参考訳(メタデータ) (2022-06-09T08:59:46Z) - Path Regularization: A Convexity and Sparsity Inducing Regularization
for Parallel ReLU Networks [75.33431791218302]
本稿では,ディープニューラルネットワークのトレーニング問題について検討し,最適化環境に隠された凸性を明らかにするための解析的アプローチを提案する。
我々は、標準のディープ・ネットワークとResNetを特別なケースとして含む、ディープ・パラレルなReLUネットワークアーキテクチャについて検討する。
論文 参考訳(メタデータ) (2021-10-18T18:00:36Z) - SUPER-ADAM: Faster and Universal Framework of Adaptive Gradients [99.13839450032408]
一般的な問題を解決するための適応アルゴリズムのための普遍的な枠組みを設計することが望まれる。
特に,本フレームワークは,非収束的設定支援の下で適応的手法を提供する。
論文 参考訳(メタデータ) (2021-06-15T15:16:28Z) - Meta-Regularization: An Approach to Adaptive Choice of the Learning Rate
in Gradient Descent [20.47598828422897]
第一次下降法における学習率の適応的選択のための新しいアプローチであるtextit-Meta-Regularizationを提案する。
本手法は,正規化項を追加して目的関数を修正し,共同処理パラメータをキャストする。
論文 参考訳(メタデータ) (2021-04-12T13:13:34Z) - Normalization Techniques in Training DNNs: Methodology, Analysis and
Application [111.82265258916397]
ディープニューラルネットワーク(DNN)のトレーニングを加速し、一般化を改善するためには、正規化技術が不可欠である
本稿では,トレーニングの文脈における正規化手法の過去,現在,未来に関するレビューとコメントを行う。
論文 参考訳(メタデータ) (2020-09-27T13:06:52Z) - Optimization Theory for ReLU Neural Networks Trained with Normalization
Layers [82.61117235807606]
ディープニューラルネットワークの成功は、部分的には正規化レイヤの使用によるものだ。
我々の分析は、正規化の導入がランドスケープをどのように変化させ、より高速なアクティベーションを実現するかを示している。
論文 参考訳(メタデータ) (2020-06-11T23:55:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。