論文の概要: Re-weighting and 1-Point RANSAC-Based PnP Solution to Handle Outliers
- arxiv url: http://arxiv.org/abs/2007.08577v1
- Date: Thu, 16 Jul 2020 19:28:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 23:43:01.948126
- Title: Re-weighting and 1-Point RANSAC-Based PnP Solution to Handle Outliers
- Title(参考訳): 異常値を扱うための再重み付けと1点ransacベースのpnpソリューション
- Authors: Haoyin Zhou, Tao Zhang, Jagadeesan Jayender
- Abstract要約: 実用的なアプリケーションにおいて、視点-n-pointアプローチを実行するためには、アウトレーヤを扱う能力が不可欠である。
ソフト再重み付け機構と 1-point RAN スキームを用いた高速解 R1P を提案する。
- 参考スコア(独自算出の注目度): 10.782705288255885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to handle outliers is essential for performing the
perspective-n-point (PnP) approach in practical applications, but conventional
RANSAC+P3P or P4P methods have high time complexities. We propose a fast PnP
solution named R1PPnP to handle outliers by utilizing a soft re-weighting
mechanism and the 1-point RANSAC scheme. We first present a PnP algorithm,
which serves as the core of R1PPnP, for solving the PnP problem in outlier-free
situations. The core algorithm is an optimal process minimizing an objective
function conducted with a random control point. Then, to reduce the impact of
outliers, we propose a reprojection error-based re-weighting method and
integrate it into the core algorithm. Finally, we employ the 1-point RANSAC
scheme to try different control points. Experiments with synthetic and
real-world data demonstrate that R1PPnP is faster than RANSAC+P3P or P4P
methods especially when the percentage of outliers is large, and is accurate.
Besides, comparisons with outlier-free synthetic data show that R1PPnP is among
the most accurate and fast PnP solutions, which usually serve as the final
refinement step of RANSAC+P3P or P4P. Compared with REPPnP, which is the
state-of-the-art PnP algorithm with an explicit outliers-handling mechanism,
R1PPnP is slower but does not suffer from the percentage of outliers limitation
as REPPnP.
- Abstract(参考訳): 異常値を扱う能力は、実際応用においてpnp(pointer-n-point)アプローチを実行するのに不可欠であるが、従来のransac+p3pまたはp4p法は高い時間的複雑度を持つ。
ソフトな再重み付け機構と1点RANSAC方式を用いて, 異常値を扱う高速PnPソリューションR1PPnPを提案する。
まず,pnp問題の解法としてr1ppnpの核となるpnpアルゴリズムを提案する。
コアアルゴリズムは、ランダム制御ポイントで実行される目的関数を最小化する最適プロセスである。
次に, 異常値の影響を低減するため, 再投影誤差に基づく再重み付け法を提案し, コアアルゴリズムに統合する。
最後に、異なる制御点を試すために1点RANSAC方式を用いる。
合成および実世界のデータを用いた実験では、R1PPnPがRANSAC+P3P法やP4P法よりも高速であることが示されている。
さらに、外れ値のない合成データと比較すると、R1PPnPは最も正確で高速なPnP溶液の1つであり、通常はRANSAC+P3PまたはP4Pの最終精製ステップとして機能する。
現状のPnPアルゴリズムであるREPPnPと比較して、R1PPnPは遅いが、REPPnPとして外周制限の比率に苦しむことはない。
関連論文リスト
- Efficiently Escaping Saddle Points for Non-Convex Policy Optimization [40.0986936439803]
政策勾配(PG)は、拡張性と優れた性能のために強化学習に広く用いられている。
本稿では,ヘッセンベクトル積 (HVP) の形で二階情報を用いた分散還元二階法を提案し,サンプルの複雑さを$tildeO(epsilon-3)$とする近似二階定常点 (SOSP) に収束する。
論文 参考訳(メタデータ) (2023-11-15T12:36:45Z) - A relaxed proximal gradient descent algorithm for convergent
plug-and-play with proximal denoiser [6.2484576862659065]
本稿では,新しいコンバーゼントなPlug-and-fidelity Descent (Play)アルゴリズムを提案する。
このアルゴリズムは、より広い範囲の通常の凸化パラメータに収束し、画像のより正確な復元を可能にする。
論文 参考訳(メタデータ) (2023-01-31T16:11:47Z) - Large-scale Optimization of Partial AUC in a Range of False Positive
Rates [51.12047280149546]
ROC曲線 (AUC) の下の領域は、機械学習において最も広く使われている分類モデルのパフォーマンス指標の1つである。
近年の封筒平滑化技術に基づく効率的な近似勾配降下法を開発した。
提案アルゴリズムは,効率のよい解法を欠くランク付けされた範囲損失の和を最小化するためにも利用できる。
論文 参考訳(メタデータ) (2022-03-03T03:46:18Z) - Reward-Free RL is No Harder Than Reward-Aware RL in Linear Markov
Decision Processes [61.11090361892306]
Reward-free reinforcement learning (RL) は、エージェントが探索中に報酬関数にアクセスできないような環境を考える。
この分離は線形MDPの設定には存在しないことを示す。
我々は$d$次元線形 MDP における報酬のない RL に対する計算効率の良いアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-01-26T22:09:59Z) - COPS: Controlled Pruning Before Training Starts [68.8204255655161]
最先端のディープニューラルネットワーク(DNN)プルーニング技術は、トレーニング開始前にワンショットで適用され、プルーニングスコアと呼ばれる単一の基準の助けを借りてスパースアーキテクチャを評価する。
この作業では、単一プルーニング基準に集中するのではなく、任意のGASを組み合わせてより強力なプルーニング戦略を構築するためのフレームワークを提供します。
論文 参考訳(メタデータ) (2021-07-27T08:48:01Z) - Parallel Stochastic Mirror Descent for MDPs [72.75921150912556]
無限水平マルコフ決定過程(MDP)における最適政策学習の問題を考える。
リプシッツ連続関数を用いた凸プログラミング問題に対してミラー・ディクセントの変種が提案されている。
このアルゴリズムを一般の場合において解析し,提案手法の動作中に誤差を蓄積しない収束率の推定値を得る。
論文 参考訳(メタデータ) (2021-02-27T19:28:39Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - Queueing Network Controls via Deep Reinforcement Learning [0.0]
待ち行列ネットワークのためのポリシ最適化アルゴリズムを開発した。
このアルゴリズムは、文学における最先端よりも優れた制御ポリシーを一貫して生成する。
PPOアルゴリズムの成功の鍵は、相対値関数を推定するために3つの分散還元技術を使用することである。
論文 参考訳(メタデータ) (2020-07-31T01:02:57Z) - Fast and Robust Iterative Closest Point [32.42799285301607]
イテレーティブ・クローズト・ポイント(ICP)は、2つの点集合間の剛性登録のための基本技術である。
Sparse ICPのような最近の研究は、計算速度を犠牲にしてスパース性最適化によって堅牢性を達成する。
本稿では,古典的な点対点ICPを最大化最小化(MM)アルゴリズムとして扱えることを示す。
論文 参考訳(メタデータ) (2020-07-15T11:32:53Z) - Determinantal Point Processes in Randomized Numerical Linear Algebra [80.27102478796613]
数値線形代数(RandNLA)は、科学計算、データサイエンス、機械学習などで発生する行列問題に対する改良されたアルゴリズムを開発するためにランダム性を使用する。
最近の研究により、DPPとRandNLAの間の深い実りある関係が明らかになり、新たな保証とアルゴリズムの改善につながった。
論文 参考訳(メタデータ) (2020-05-07T00:39:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。