論文の概要: A Revisit of the Normalized Eight-Point Algorithm and A Self-Supervised
Deep Solution
- arxiv url: http://arxiv.org/abs/2304.10771v3
- Date: Tue, 16 Jan 2024 01:58:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 02:56:50.246062
- Title: A Revisit of the Normalized Eight-Point Algorithm and A Self-Supervised
Deep Solution
- Title(参考訳): 正規化8点アルゴリズムと自己教師付き深解の再検討
- Authors: Bin Fan, Yuchao Dai, Yongduek Seo, Mingyi He
- Abstract要約: 我々は、正規化された8点アルゴリズムを再検討し、異なるより優れた正規化アルゴリズムの存在を示す。
本稿では,正規化のための自己教師型学習戦略を備えた深層畳み込みニューラルネットワークを提案する。
私たちの学習ベースの正規化モジュールは、従来の(例えば、RANSAC)とディープラーニングフレームワークの両方に統合することができます。
- 参考スコア(独自算出の注目度): 45.10109739084541
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The normalized eight-point algorithm has been widely viewed as the
cornerstone in two-view geometry computation, where the seminal Hartley's
normalization has greatly improved the performance of the direct linear
transformation algorithm. A natural question is, whether there exists and how
to find other normalization methods that may further improve the performance as
per each input sample. In this paper, we provide a novel perspective and
propose two contributions to this fundamental problem: 1) we revisit the
normalized eight-point algorithm and make a theoretical contribution by
presenting the existence of different and better normalization algorithms; 2)
we introduce a deep convolutional neural network with a self-supervised
learning strategy for normalization. Given eight pairs of correspondences, our
network directly predicts the normalization matrices, thus learning to
normalize each input sample. Our learning-based normalization module can be
integrated with both traditional (e.g., RANSAC) and deep learning frameworks
(affording good interpretability) with minimal effort. Extensive experiments on
both synthetic and real images demonstrate the effectiveness of our proposed
approach.
- Abstract(参考訳): 正規化8点アルゴリズムは、2次元幾何計算の基盤として広く見なされ、そこではセミナルハートレーの正規化が直接線形変換アルゴリズムの性能を大幅に向上させた。
自然な疑問は、入力サンプルごとにさらに性能を向上させるであろう他の正規化方法が存在するかどうかである。
本稿では,新しい視点を提供し,この根本的な問題に対する2つの貢献を提案する。
1) 正規化された8点アルゴリズムを再検討し, より優れた正規化アルゴリズムの存在を提示することにより理論的貢献を行う。
2)正規化のための自己教師付き学習戦略を持つ深層畳み込みニューラルネットワークを提案する。
8対の対応が与えられると、ネットワークは正規化行列を直接予測し、各入力サンプルの正規化を学習する。
私たちの学習ベースの正規化モジュールは、従来の(例えば、RANSAC)とディープラーニングフレームワークの両方と、最小限の労力で統合することができます。
合成画像と実画像の両方について広範な実験を行い,提案手法の有効性を示した。
関連論文リスト
- Bayesian Design Principles for Frequentist Sequential Learning [11.421942894219901]
逐次学習問題に対する頻繁な後悔を最適化する理論を開発する。
各ラウンドで「アルゴリズム的信念」を生成するための新しい最適化手法を提案する。
本稿では,マルチアームバンディットの「ベスト・オブ・オール・ワールド」な経験的性能を実現するための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-01T22:17:37Z) - A Compound Gaussian Least Squares Algorithm and Unrolled Network for
Linear Inverse Problems [1.283555556182245]
本稿では,線形逆問題に対する2つの新しいアプローチを提案する。
1つ目は、正規化された最小二乗目的関数を最小化する反復アルゴリズムである。
2つ目は、反復アルゴリズムの「アンロール」または「アンフォールディング」に対応するディープニューラルネットワークである。
論文 参考訳(メタデータ) (2023-05-18T17:05:09Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Learning Non-Vacuous Generalization Bounds from Optimization [8.294831479902658]
最適化の観点からは、単純だが空でない一般化を示す。
我々は、勾配アルゴリズムによってアクセスされた仮説セットが本質的にフラクタル的であることを利用して、この目標を達成する。
数値解析により,現代のニューラルネットワークにおいて,本手法が有意な一般化を保証することが実証された。
論文 参考訳(メタデータ) (2022-06-09T08:59:46Z) - Path Regularization: A Convexity and Sparsity Inducing Regularization
for Parallel ReLU Networks [75.33431791218302]
本稿では,ディープニューラルネットワークのトレーニング問題について検討し,最適化環境に隠された凸性を明らかにするための解析的アプローチを提案する。
我々は、標準のディープ・ネットワークとResNetを特別なケースとして含む、ディープ・パラレルなReLUネットワークアーキテクチャについて検討する。
論文 参考訳(メタデータ) (2021-10-18T18:00:36Z) - SUPER-ADAM: Faster and Universal Framework of Adaptive Gradients [99.13839450032408]
一般的な問題を解決するための適応アルゴリズムのための普遍的な枠組みを設計することが望まれる。
特に,本フレームワークは,非収束的設定支援の下で適応的手法を提供する。
論文 参考訳(メタデータ) (2021-06-15T15:16:28Z) - Meta-Regularization: An Approach to Adaptive Choice of the Learning Rate
in Gradient Descent [20.47598828422897]
第一次下降法における学習率の適応的選択のための新しいアプローチであるtextit-Meta-Regularizationを提案する。
本手法は,正規化項を追加して目的関数を修正し,共同処理パラメータをキャストする。
論文 参考訳(メタデータ) (2021-04-12T13:13:34Z) - Normalization Techniques in Training DNNs: Methodology, Analysis and
Application [111.82265258916397]
ディープニューラルネットワーク(DNN)のトレーニングを加速し、一般化を改善するためには、正規化技術が不可欠である
本稿では,トレーニングの文脈における正規化手法の過去,現在,未来に関するレビューとコメントを行う。
論文 参考訳(メタデータ) (2020-09-27T13:06:52Z) - Optimization Theory for ReLU Neural Networks Trained with Normalization
Layers [82.61117235807606]
ディープニューラルネットワークの成功は、部分的には正規化レイヤの使用によるものだ。
我々の分析は、正規化の導入がランドスケープをどのように変化させ、より高速なアクティベーションを実現するかを示している。
論文 参考訳(メタデータ) (2020-06-11T23:55:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。