論文の概要: Monte Carlo Diffusion for Generalizable Learning-Based RANSAC
- arxiv url: http://arxiv.org/abs/2503.09410v1
- Date: Wed, 12 Mar 2025 14:01:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:39:03.355368
- Title: Monte Carlo Diffusion for Generalizable Learning-Based RANSAC
- Title(参考訳): 一般学習型RANSACのためのモンテカルロ拡散
- Authors: Jiale Wang, Chen Zhao, Wei Ke, Tong Zhang,
- Abstract要約: 既存の学習に基づくRANSAC手法は、ディープラーニングを利用して、外れ値に対するRANSACの堅牢性を高める。
本研究では,地中構造データに段階的にノイズを注入する拡散に基づく新しいパラダイムを提案する。
我々は,ScanNetとMegaDepthデータセットの総合的な実験を通じて,特徴マッチングの文脈におけるアプローチを評価する。
- 参考スコア(独自算出の注目度): 14.693263976040482
- License:
- Abstract: Random Sample Consensus (RANSAC) is a fundamental approach for robustly estimating parametric models from noisy data. Existing learning-based RANSAC methods utilize deep learning to enhance the robustness of RANSAC against outliers. However, these approaches are trained and tested on the data generated by the same algorithms, leading to limited generalization to out-of-distribution data during inference. Therefore, in this paper, we introduce a novel diffusion-based paradigm that progressively injects noise into ground-truth data, simulating the noisy conditions for training learning-based RANSAC. To enhance data diversity, we incorporate Monte Carlo sampling into the diffusion paradigm, approximating diverse data distributions by introducing different types of randomness at multiple stages. We evaluate our approach in the context of feature matching through comprehensive experiments on the ScanNet and MegaDepth datasets. The experimental results demonstrate that our Monte Carlo diffusion mechanism significantly improves the generalization ability of learning-based RANSAC. We also develop extensive ablation studies that highlight the effectiveness of key components in our framework.
- Abstract(参考訳): Random Sample Consensus (RANSAC) はノイズデータからパラメトリックモデルを頑健に推定するための基本的なアプローチである。
既存の学習に基づくRANSAC手法は、ディープラーニングを利用して、外れ値に対するRANSACの堅牢性を高める。
しかし、これらのアプローチは同一のアルゴリズムで生成されたデータに基づいて訓練され、テストされ、推論中に配布外データへの限定的な一般化がもたらされる。
そこで本稿では,学習ベースRANSACの学習条件をシミュレートした,新たな拡散型パラダイムを提案する。
データ多様性を高めるために,モンテカルロサンプリングを拡散パラダイムに組み込み,複数の段階で異なる種類のランダム性を導入することにより,多様なデータ分布を近似する。
我々は,ScanNetとMegaDepthデータセットの総合的な実験を通じて,特徴マッチングの文脈におけるアプローチを評価する。
実験により,モンテカルロ拡散機構は学習に基づくRANSACの一般化能力を大幅に向上させることが示された。
また、我々のフレームワークにおける重要なコンポーネントの有効性を強調する広範囲なアブレーション研究も進めている。
関連論文リスト
- Reward-Directed Score-Based Diffusion Models via q-Learning [8.725446812770791]
生成AIのための連続時間スコアベース拡散モデルのトレーニングのための新しい強化学習(RL)法を提案する。
我々の定式化は、ノイズ摂動データ分布の未知のスコア関数に対する事前学習モデルを含まない。
論文 参考訳(メタデータ) (2024-09-07T13:55:45Z) - Understanding Reinforcement Learning-Based Fine-Tuning of Diffusion Models: A Tutorial and Review [63.31328039424469]
このチュートリアルは、下流の報酬関数を最適化するための微調整拡散モデルのための方法を網羅的に調査する。
PPO,微分可能最適化,報酬重み付きMLE,値重み付きサンプリング,経路整合性学習など,様々なRLアルゴリズムの適用について説明する。
論文 参考訳(メタデータ) (2024-07-18T17:35:32Z) - Diffusion Spectral Representation for Reinforcement Learning [17.701625371409644]
本稿では,表現学習の観点からの強化学習に拡散モデルの柔軟性を活用することを提案する。
拡散モデルとエネルギーベースモデルとの接続を利用して拡散スペクトル表現(Diff-SR)を開発する。
Diff-SRは、拡散モデルからのサンプリングの難易度と推論コストを明示的に回避しつつ、効率的なポリシー最適化と実用的なアルゴリズムを実現する方法を示す。
論文 参考訳(メタデータ) (2024-06-23T14:24:14Z) - Take the Bull by the Horns: Hard Sample-Reweighted Continual Training
Improves LLM Generalization [165.98557106089777]
大きな言語モデル(LLM)の能力を高めることが大きな課題だ。
本研究は,従来の事前学習データセットを用いたLCMの光連続訓練に関する実証的戦略から始まった。
次に、この戦略をインスタンス重み付け分散ロバスト最適化の原則化されたフレームワークに定式化します。
論文 参考訳(メタデータ) (2024-02-22T04:10:57Z) - Improved off-policy training of diffusion samplers [93.66433483772055]
本研究では,非正規化密度やエネルギー関数を持つ分布からサンプルを抽出する拡散モデルの訓練問題について検討する。
シミュレーションに基づく変分法や非政治手法など,拡散構造推論手法のベンチマークを行った。
我々の結果は、過去の研究の主張に疑問を投げかけながら、既存のアルゴリズムの相対的な利点を浮き彫りにした。
論文 参考訳(メタデータ) (2024-02-07T18:51:49Z) - RLSAC: Reinforcement Learning enhanced Sample Consensus for End-to-End
Robust Estimation [74.47709320443998]
RLSAC(Reinforcement Learning enhanced SAmple Consensus framework for end-to-end robust estimation)を提案する。
RLSACはグラフニューラルネットワークを用いて、データとメモリの特徴の両方を利用して探索方向を案内し、次の最小セットをサンプリングする。
実験の結果, RLSACは特徴から学習し, より優れた仮説を徐々に探求できることがわかった。
論文 参考訳(メタデータ) (2023-08-10T03:14:19Z) - A Probabilistic Approach to Self-Supervised Learning using Cyclical
Stochastic Gradient MCMC [8.027994148508844]
循環グラディエントハミルトンモンテカルロ(cSGHMC)を用いた実践的自己教師型学習法を提案する。
本枠組みでは,自己教師型学習モデルのパラメータよりも先を置き,cSGHMCを用いて埋め込みの高次元および多モード後部分布を近似する。
4つの挑戦的データセットに対して,複数の分類タスクに関する実験結果を提供する。
論文 参考訳(メタデータ) (2023-08-02T16:52:56Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - An Empirical Study on Distribution Shift Robustness From the Perspective
of Pre-Training and Data Augmentation [91.62129090006745]
本稿では,事前学習とデータ拡張の観点から分布シフト問題を考察する。
我々は,事前学習とデータ拡張に焦点を当てた,最初の総合的な実証的研究を行った。
論文 参考訳(メタデータ) (2022-05-25T13:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。