論文の概要: Deep MAGSAC++
- arxiv url: http://arxiv.org/abs/2111.14093v1
- Date: Sun, 28 Nov 2021 10:16:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 11:14:46.242238
- Title: Deep MAGSAC++
- Title(参考訳): Deep MAGSAC++
- Authors: Wei Tong, Jiri Matas, Daniel Barath
- Abstract要約: 部分的にアフィン共変関数から向きとスケールを利用する新しい損失関数を導入する。
また, RANSAC 用の新しいサンプリング器を提案し, インレーヤのみを構成する確率が最も高いサンプルを常に選択する。
Deep MAGSAC++は、公開データセットから数千の画像ペアの精度と実行時間の両方において、最先端よりも優れている。
- 参考スコア(独自算出の注目度): 69.5838085113874
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Deep MAGSAC++ combining the advantages of traditional and deep
robust estimators. We introduce a novel loss function that exploits the
orientation and scale from partially affine covariant features, e.g., SIFT, in
a geometrically justifiable manner. The new loss helps in learning higher-order
information about the underlying scene geometry. Moreover, we propose a new
sampler for RANSAC that always selects the sample with the highest probability
of consisting only of inliers. After every unsuccessful iteration, the
probabilities are updated in a principled way via a Bayesian approach. The
prediction of the deep network is exploited as prior inside the sampler.
Benefiting from the new loss, the proposed sampler, and a number of technical
advancements, Deep MAGSAC++ is superior to the state-of-the-art both in terms
of accuracy and run-time on thousands of image pairs from publicly available
datasets for essential and fundamental matrix estimation.
- Abstract(参考訳): 本稿では,従来の頑健な推定器の利点を組み合わせたDeep MAGSAC++を提案する。
幾何的に正当化可能な方法で,部分的アフィン共変特徴(例えばsift)から方向とスケールを利用する新たな損失関数を導入する。
新しい損失は、下層のシーン幾何学に関する高次情報を学ぶのに役立つ。
さらに, RANSAC 用の新しいサンプリング器を提案し, インレーヤのみを構成する確率が最も高いサンプルを常に選択する。
反復が失敗すると、確率はベイズ的アプローチによって原則的に更新される。
ディープ・ネットワークの予測は、サンプリング器内の事前予測として利用される。
新たな損失、提案されたサンプル、および多くの技術的進歩により、Deep MAGSAC++は、基本的および基本的行列推定のために公開されているデータセットから数千の画像ペアの精度と実行時間の両方において、最先端技術よりも優れている。
関連論文リスト
- Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - NeFSAC: Neurally Filtered Minimal Samples [90.55214606751453]
NeFSACは、動作不整合で条件の悪い最小サンプルをニューラルネットワークでフィルタリングするための効率的なアルゴリズムである。
NeFSACは既存のRANSACベースのパイプラインに接続できる。
公開されている3つの実世界のデータセットから100万枚以上のイメージペアでNeFSACをテストしました。
論文 参考訳(メタデータ) (2022-07-16T08:02:05Z) - Exponentially Tilted Gaussian Prior for Variational Autoencoder [3.52359746858894]
近年の研究では, この課題に対して確率的生成モデルが不十分であることが示されている。
変分オートエンコーダ(VAE)の指数傾斜ガウス事前分布を提案する。
本モデルでは,標準ガウスVAEよりクオリティの高い画像サンプルが得られた。
論文 参考訳(メタデータ) (2021-11-30T18:28:19Z) - Exploring the Uncertainty Properties of Neural Networks' Implicit Priors
in the Infinite-Width Limit [47.324627920761685]
我々は、無限大のNNのアンサンブルに先立って関数空間をガウス過程として特徴づける最近の理論的進歩を用いる。
これにより、関数空間上の暗黙の前のNNについて、よりよく理解できます。
また,従来のNNGPを用いた分類手法の校正について検討した。
論文 参考訳(メタデータ) (2020-10-14T18:41:54Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z) - Learning Rates as a Function of Batch Size: A Random Matrix Theory
Approach to Neural Network Training [2.9649783577150837]
スパイクされたフィールド依存ランダム行列理論を用いて, ニューラルネットの損失景観に及ぼすミニバッチの影響について検討した。
我々は、スムーズで非ニュートンディープニューラルネットワークのための最大降下および適応訓練規則の解析式を導出する。
VGG/ResNetおよびImageNetデータセットのクレームを検証する。
論文 参考訳(メタデータ) (2020-06-16T11:55:45Z) - Choosing the Sample with Lowest Loss makes SGD Robust [19.08973384659313]
各ステップで単純な勾配降下法(SGD)を提案する。
しかし、バニラは最小の損失で非電流和を効果的に最小化する新しいアルゴリズムである。
ML問題に対するこの考え方の理論的分析は、小規模なニューラルネットワーク実験によって裏付けられている。
論文 参考訳(メタデータ) (2020-01-10T05:39:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。