論文の概要: Fully Differentiable RANSAC
- arxiv url: http://arxiv.org/abs/2212.13185v1
- Date: Mon, 26 Dec 2022 15:13:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 14:52:00.335874
- Title: Fully Differentiable RANSAC
- Title(参考訳): 完全微分可能なRANSAC
- Authors: Tong Wei, Yash Patel, Jiri Matas, Daniel Barath
- Abstract要約: $nabla$-RANSAC は入力データポイントの不整合確率を予測し、ガイド付きサンプルの予測を利用し、モデルパラメータを推定する。
$nabla$-RANSACは、幾何学的推定パイプラインのエンドツーエンドトレーニングを最初にアンロックする。
- 参考スコア(独自算出の注目度): 56.958161987394455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose the fully differentiable $\nabla$-RANSAC.It predicts the inlier
probabilities of the input data points, exploits the predictions in a guided
sampler, and estimates the model parameters (e.g., fundamental matrix) and its
quality while propagating the gradients through the entire procedure. The
random sampler in $\nabla$-RANSAC is based on a clever re-parametrization
strategy, i.e.\ the Gumbel Softmax sampler, that allows propagating the
gradients directly into the subsequent differentiable minimal solver. The model
quality function marginalizes over the scores from all models estimated within
$\nabla$-RANSAC to guide the network learning accurate and useful
probabilities.$\nabla$-RANSAC is the first to unlock the end-to-end training of
geometric estimation pipelines, containing feature detection, matching and
RANSAC-like randomized robust estimation. As a proof of its potential, we train
$\nabla$-RANSAC together with LoFTR, i.e. a recent detector-free feature
matcher, to find reliable correspondences in an end-to-end manner. We test
$\nabla$-RANSAC on a number of real-world datasets on fundamental and essential
matrix estimation. It is superior to the state-of-the-art in terms of accuracy
while being among the fastest methods. The code and trained models will be made
public.
- Abstract(参考訳): そこで本研究では,入力データ点の異常確率を予測し,誘導サンプラーの予測を活用し,モデルパラメータ(基本行列など)とその品質を推定し,手続き全体の勾配を伝播する。
$\nabla$-RANSACのランダムサンプリングは、利口な再パラメータ化戦略、すなわちGumbel Softmaxサンプルに基づいており、これにより勾配を直接、微分可能な最小解法へと伝播することができる。
モデル品質関数は、$\nabla$-RANSACで見積もるすべてのモデルのスコアから、ネットワーク学習の正確かつ有用な確率を導出する。
$\nabla$-RANSACは、幾何学的推定パイプラインのエンドツーエンドトレーニングを最初にアンロックし、特徴検出、マッチング、RANSAC風のランダム化ロバスト推定を含む。
その可能性の証明として、我々はLoFTR、すなわち最近の検出器なし特徴整合器と共に$\nabla$-RANSACを訓練し、エンドツーエンドで信頼できる対応を見つける。
基本的および本質的な行列推定に基づいて,多数の実世界のデータセット上で$\nabla$-RANSACをテストする。
精度の面では最先端の手法よりも優れているが、最速の手法である。
コードとトレーニングされたモデルは公開されます。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Fast, Distribution-free Predictive Inference for Neural Networks with
Coverage Guarantees [25.798057062452443]
本稿では,予測推論(PI)のための新しい計算効率アルゴリズムを提案する。
データに対する分布的な仮定は不要で、ニューラルネットワークの既存のブートストラップ方式よりも高速に計算できる。
論文 参考訳(メタデータ) (2023-06-11T04:03:58Z) - Learning Representations on the Unit Sphere: Investigating Angular
Gaussian and von Mises-Fisher Distributions for Online Continual Learning [7.145581090959242]
本稿では,新たな損失関数を備えたメモリベース表現学習手法を提案する。
提案手法は,タスク境界がぼやけた標準的な評価シナリオと現実的なシナリオの両方において,現状の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-06T02:38:01Z) - Towards Understanding and Improving GFlowNet Training [71.85707593318297]
本稿では,学習したサンプリング分布と目標報酬分布を比較するための効率的な評価手法を提案する。
本稿では,高解像度のx$,相対的エッジフローポリシーのパラメータ化,新しい軌道バランス目標を提案する。
論文 参考訳(メタデータ) (2023-05-11T22:50:41Z) - Federated Learning Using Variance Reduced Stochastic Gradient for
Probabilistically Activated Agents [0.0]
本稿では,各エージェントが各反復において任意の選択の確率を持つような最適解に対して,分散低減と高速収束率の両方を達成する2層構造を持つフェデレートラーニング(FL)のアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-25T22:04:49Z) - An Information-Theoretic Analysis for Transfer Learning: Error Bounds
and Applications [5.081241420920605]
本稿では,伝達学習アルゴリズムの一般化誤差と過剰リスクに関する情報理論解析を行う。
我々の結果は、おそらく予想通り、Kulback-Leiblerの発散$D(mu||mu')$がキャラクタリゼーションにおいて重要な役割を果たすことを示唆している。
そこで本研究では,ソースデータとターゲットデータの重み付けを適応的に調整するInfoBoostアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-12T08:20:41Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - The Bures Metric for Generative Adversarial Networks [10.69910379275607]
GAN(Generative Adversarial Networks)は、高品質なサンプルを生成する高性能な生成手法である。
実バッチの多様性と偽バッチの多様性を一致させることを提案する。
多様性マッチングはモード崩壊を著しく低減し, サンプル品質に肯定的な影響を及ぼす。
論文 参考訳(メタデータ) (2020-06-16T12:04:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。