論文の概要: Fully Differentiable RANSAC
- arxiv url: http://arxiv.org/abs/2212.13185v1
- Date: Mon, 26 Dec 2022 15:13:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 14:52:00.335874
- Title: Fully Differentiable RANSAC
- Title(参考訳): 完全微分可能なRANSAC
- Authors: Tong Wei, Yash Patel, Jiri Matas, Daniel Barath
- Abstract要約: $nabla$-RANSAC は入力データポイントの不整合確率を予測し、ガイド付きサンプルの予測を利用し、モデルパラメータを推定する。
$nabla$-RANSACは、幾何学的推定パイプラインのエンドツーエンドトレーニングを最初にアンロックする。
- 参考スコア(独自算出の注目度): 56.958161987394455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose the fully differentiable $\nabla$-RANSAC.It predicts the inlier
probabilities of the input data points, exploits the predictions in a guided
sampler, and estimates the model parameters (e.g., fundamental matrix) and its
quality while propagating the gradients through the entire procedure. The
random sampler in $\nabla$-RANSAC is based on a clever re-parametrization
strategy, i.e.\ the Gumbel Softmax sampler, that allows propagating the
gradients directly into the subsequent differentiable minimal solver. The model
quality function marginalizes over the scores from all models estimated within
$\nabla$-RANSAC to guide the network learning accurate and useful
probabilities.$\nabla$-RANSAC is the first to unlock the end-to-end training of
geometric estimation pipelines, containing feature detection, matching and
RANSAC-like randomized robust estimation. As a proof of its potential, we train
$\nabla$-RANSAC together with LoFTR, i.e. a recent detector-free feature
matcher, to find reliable correspondences in an end-to-end manner. We test
$\nabla$-RANSAC on a number of real-world datasets on fundamental and essential
matrix estimation. It is superior to the state-of-the-art in terms of accuracy
while being among the fastest methods. The code and trained models will be made
public.
- Abstract(参考訳): そこで本研究では,入力データ点の異常確率を予測し,誘導サンプラーの予測を活用し,モデルパラメータ(基本行列など)とその品質を推定し,手続き全体の勾配を伝播する。
$\nabla$-RANSACのランダムサンプリングは、利口な再パラメータ化戦略、すなわちGumbel Softmaxサンプルに基づいており、これにより勾配を直接、微分可能な最小解法へと伝播することができる。
モデル品質関数は、$\nabla$-RANSACで見積もるすべてのモデルのスコアから、ネットワーク学習の正確かつ有用な確率を導出する。
$\nabla$-RANSACは、幾何学的推定パイプラインのエンドツーエンドトレーニングを最初にアンロックし、特徴検出、マッチング、RANSAC風のランダム化ロバスト推定を含む。
その可能性の証明として、我々はLoFTR、すなわち最近の検出器なし特徴整合器と共に$\nabla$-RANSACを訓練し、エンドツーエンドで信頼できる対応を見つける。
基本的および本質的な行列推定に基づいて,多数の実世界のデータセット上で$\nabla$-RANSACをテストする。
精度の面では最先端の手法よりも優れているが、最速の手法である。
コードとトレーニングされたモデルは公開されます。
関連論文リスト
- Revisiting Score Function Estimators for $k$-Subset Sampling [5.464421236280698]
離散フーリエ変換を用いて,$k$-subset分布のスコア関数を効率的に計算する方法を示す。
得られた推定器は、正確なサンプルと偏りのない勾配推定の両方を提供する。
特徴選択の実験は、仮定が弱いにもかかわらず、現在の手法と競合する結果を示している。
論文 参考訳(メタデータ) (2024-07-22T21:26:39Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Provably Stable Feature Rankings with SHAP and LIME [3.8642937395065124]
最も重要な特徴を高い確率で正しくランク付けする属性法を考案する。
SHAP と LIME の効率的なサンプリングアルゴリズムを導入し,K$ の高階特徴が適切に順序付け可能であることを保証した。
論文 参考訳(メタデータ) (2024-01-28T23:14:51Z) - Fast, Distribution-free Predictive Inference for Neural Networks with
Coverage Guarantees [25.798057062452443]
本稿では,予測推論(PI)のための新しい計算効率アルゴリズムを提案する。
データに対する分布的な仮定は不要で、ニューラルネットワークの既存のブートストラップ方式よりも高速に計算できる。
論文 参考訳(メタデータ) (2023-06-11T04:03:58Z) - Learning Representations on the Unit Sphere: Investigating Angular
Gaussian and von Mises-Fisher Distributions for Online Continual Learning [7.145581090959242]
本稿では,新たな損失関数を備えたメモリベース表現学習手法を提案する。
提案手法は,タスク境界がぼやけた標準的な評価シナリオと現実的なシナリオの両方において,現状の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-06T02:38:01Z) - Towards Understanding and Improving GFlowNet Training [71.85707593318297]
本稿では,学習したサンプリング分布と目標報酬分布を比較するための効率的な評価手法を提案する。
本稿では,高解像度のx$,相対的エッジフローポリシーのパラメータ化,新しい軌道バランス目標を提案する。
論文 参考訳(メタデータ) (2023-05-11T22:50:41Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Transformers Can Do Bayesian Inference [56.99390658880008]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模機械学習技術におけるインコンテキスト学習を活用して、大規模な後部集合を近似する。
我々は、PFNがガウス過程をほぼ完璧に模倣し、難解問題に対する効率的なベイズ推定を可能にすることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - The Bures Metric for Generative Adversarial Networks [10.69910379275607]
GAN(Generative Adversarial Networks)は、高品質なサンプルを生成する高性能な生成手法である。
実バッチの多様性と偽バッチの多様性を一致させることを提案する。
多様性マッチングはモード崩壊を著しく低減し, サンプル品質に肯定的な影響を及ぼす。
論文 参考訳(メタデータ) (2020-06-16T12:04:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。