論文の概要: Adaptive Reordering Sampler with Neurally Guided MAGSAC
- arxiv url: http://arxiv.org/abs/2111.14093v3
- Date: Fri, 8 Sep 2023 16:23:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-11 19:02:21.605410
- Title: Adaptive Reordering Sampler with Neurally Guided MAGSAC
- Title(参考訳): ニューラルガイドMAGSACを用いた適応リオーダーサンプリング
- Authors: Tong Wei, Jiri Matas, Daniel Barath
- Abstract要約: そこで我々は, 常に不整数のみを構成する確率が最も高い試料を選定する頑健な推定器のための新しいサンプリング器を提案する。
反復が失敗すると、イリヤ確率はベイズ的アプローチによって原則的に更新される。
幾何的に妥当な方法で、あらゆる種類の特徴に対して推定できる配向とスケールを利用する新しい損失を導入する。
- 参考スコア(独自算出の注目度): 63.139445467355934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new sampler for robust estimators that always selects the sample
with the highest probability of consisting only of inliers. After every
unsuccessful iteration, the inlier probabilities are updated in a principled
way via a Bayesian approach. The probabilities obtained by the deep network are
used as prior (so-called neural guidance) inside the sampler. Moreover, we
introduce a new loss that exploits, in a geometrically justifiable manner, the
orientation and scale that can be estimated for any type of feature, e.g., SIFT
or SuperPoint, to estimate two-view geometry. The new loss helps to learn
higher-order information about the underlying scene geometry. Benefiting from
the new sampler and the proposed loss, we combine the neural guidance with the
state-of-the-art MAGSAC++. Adaptive Reordering Sampler with Neurally Guided
MAGSAC (ARS-MAGSAC) is superior to the state-of-the-art in terms of accuracy
and run-time on the PhotoTourism and KITTI datasets for essential and
fundamental matrix estimation. The code and trained models are available at
https://github.com/weitong8591/ars_magsac.
- Abstract(参考訳): そこで本研究では,イリアーのみからなる確率が最も高いサンプルを常に選択するロバスト推定器のための新しいサンプリング器を提案する。
繰り返しが失敗した後、インリエー確率はベイズ的アプローチによって原理的に更新される。
ディープネットワークによって得られる確率は、サンプリング装置内の事前(いわゆるニューラルガイダンス)として使用される。
さらに,任意の特徴(例えばsift や superpoint など)に対して推定可能な向きとスケールを,幾何学的に正当化可能な方法で活用し,二視点幾何学を推定する新たな損失を導入する。
新しい損失は、下層のシーン幾何学に関する高次情報を学ぶのに役立つ。
新しいサンプルと提案された損失から恩恵を得て、ニューラルガイダンスと最先端のMAGSAC++を組み合わせる。
Adaptive Reordering Sampler with Neurally Guided MAGSAC (ARS-MAGSAC) は、基本的および基本的行列推定のためのPhotoTourismおよびKITTIデータセットの精度と実行時間において最先端の手法よりも優れている。
コードとトレーニングされたモデルはhttps://github.com/weitong8591/ars_magsacで入手できる。
関連論文リスト
- Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - NeFSAC: Neurally Filtered Minimal Samples [90.55214606751453]
NeFSACは、動作不整合で条件の悪い最小サンプルをニューラルネットワークでフィルタリングするための効率的なアルゴリズムである。
NeFSACは既存のRANSACベースのパイプラインに接続できる。
公開されている3つの実世界のデータセットから100万枚以上のイメージペアでNeFSACをテストしました。
論文 参考訳(メタデータ) (2022-07-16T08:02:05Z) - Exponentially Tilted Gaussian Prior for Variational Autoencoder [3.52359746858894]
近年の研究では, この課題に対して確率的生成モデルが不十分であることが示されている。
変分オートエンコーダ(VAE)の指数傾斜ガウス事前分布を提案する。
本モデルでは,標準ガウスVAEよりクオリティの高い画像サンプルが得られた。
論文 参考訳(メタデータ) (2021-11-30T18:28:19Z) - Exploring the Uncertainty Properties of Neural Networks' Implicit Priors
in the Infinite-Width Limit [47.324627920761685]
我々は、無限大のNNのアンサンブルに先立って関数空間をガウス過程として特徴づける最近の理論的進歩を用いる。
これにより、関数空間上の暗黙の前のNNについて、よりよく理解できます。
また,従来のNNGPを用いた分類手法の校正について検討した。
論文 参考訳(メタデータ) (2020-10-14T18:41:54Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z) - Learning Rates as a Function of Batch Size: A Random Matrix Theory
Approach to Neural Network Training [2.9649783577150837]
スパイクされたフィールド依存ランダム行列理論を用いて, ニューラルネットの損失景観に及ぼすミニバッチの影響について検討した。
我々は、スムーズで非ニュートンディープニューラルネットワークのための最大降下および適応訓練規則の解析式を導出する。
VGG/ResNetおよびImageNetデータセットのクレームを検証する。
論文 参考訳(メタデータ) (2020-06-16T11:55:45Z) - Choosing the Sample with Lowest Loss makes SGD Robust [19.08973384659313]
各ステップで単純な勾配降下法(SGD)を提案する。
しかし、バニラは最小の損失で非電流和を効果的に最小化する新しいアルゴリズムである。
ML問題に対するこの考え方の理論的分析は、小規模なニューラルネットワーク実験によって裏付けられている。
論文 参考訳(メタデータ) (2020-01-10T05:39:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。