論文の概要: IMOT: General-Purpose, Fast and Robust Estimation for Spatial Perception
Problems with Outliers
- arxiv url: http://arxiv.org/abs/2204.01324v1
- Date: Mon, 4 Apr 2022 08:57:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 00:44:51.740774
- Title: IMOT: General-Purpose, Fast and Robust Estimation for Spatial Perception
Problems with Outliers
- Title(参考訳): IMOT:外乱を考慮した空間知覚問題に対する汎用的,高速,ロバストな評価
- Authors: Lei Sun
- Abstract要約: 我々は,新しい汎用ロバスト推定器IMOT(Iterative Multi-layered Otsu's Thresholding)を提案する。
我々は, 回転平均化, 回転探索, 点雲登録, カテゴリーレベル登録, SLAMの5つの異なる空間認識問題に対して, 頑健な推定器IMOTを検証した。
- 参考スコア(独自算出の注目度): 5.273254350665794
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Spatial perception problems are the fundamental building blocks of robotics
and computer vision. However, in many real-world situations, they inevitably
suffer from the issue of outliers, which hinders traditional solvers from
making correct estimates. In this paper, we present a novel, general-purpose
robust estimator IMOT (Iterative Multi-layered Otsu's Thresholding) using
standard non-minimal solvers to rapidly reject outliers for spatial perception
problems. First, we propose a new outlier-robust iterative optimizing framework
where in each iteration all the measurement data are separated into two groups
according to the residual errors and only the group with lower residual errors
can be preserved for estimation in the next iteration. Second, we introduce and
employ the well-known Otsu's method (from image processing) to conduct
thresholding on the residual errors so as to obtain the best separation
(grouping) statistically which maximizes the between-class variance. Third, to
enhance robustness, we design a multi-layered Otsu's thresholding approach in
combination with our framework to sift out the true inliers from outliers that
might even occupy the majority of measurements. We test our robust estimator
IMOT on 5 different spatial perception problems including: rotation averaging,
rotation search, point cloud registration, category-level registration, and
SLAM. Experiments show that IMOT is robust against 70%--90% of outliers and can
typically converge in only 3--10 iterations, being 3--125 times faster than
existing robust estimators: GNC and ADAPT. Moreover, IMOT is able to return
robust results even without noise bound information.
- Abstract(参考訳): 空間知覚問題はロボット工学とコンピュータビジョンの基本的な構成要素である。
しかし、現実世界の多くの状況において、彼らは必然的に外れ値の問題に苦しんでいるため、従来の解法者が正しい見積もりをするのを妨げる。
本稿では,標準的な非最小解法を用いて,空間知覚問題に対する外れ値の高速拒否を行う,汎用頑健性推定器IMOT(Iterative Multi-layered Otsu's Thresholding)を提案する。
まず, 残差誤差に応じてすべての測定データを2つのグループに分割し, 残差誤差の低いグループのみを次のイテレーションで推定するために保存する, 新たなアウトリー・ロバスト反復最適化フレームワークを提案する。
次に,よく知られた大津法(画像処理から)を導入し,残差誤差のしきい値化を行い,クラス間分散を最大化する最適分離(グループ化)を統計的に獲得する。
第三に、ロバスト性を高めるために、我々のフレームワークと組み合わせて多層式大津しきい値測定手法を設計し、測定の大部分を占める可能性のある外れ値から真のインレーヤを抽出する。
我々は, 回転平均化, 回転探索, 点雲登録, カテゴリーレベル登録, SLAMの5つの空間認識問題に対して, 頑健な推定器IMOTを検証した。
実験の結果、IMOTは外れ値の70%--90%に対して堅牢であり、通常は3~10回しか収束せず、既存の頑健な推定値であるGNCとADAPTの3~125倍の速度であることがわかった。
さらに、IMOTはノイズ境界情報なしで頑健な結果を返すことができる。
関連論文リスト
- Deep Ensembles Meets Quantile Regression: Uncertainty-aware Imputation
for Time Series [49.992908221544624]
時系列データは、しばしば多くの欠落した値を示し、これは時系列計算タスクである。
従来の深層学習法は時系列計算に有効であることが示されている。
本研究では,不確実性のある高精度な計算を行う非生成時系列計算法を提案する。
論文 参考訳(メタデータ) (2023-12-03T05:52:30Z) - Robust Outlier Rejection for 3D Registration with Variational Bayes [70.98659381852787]
我々は、ロバストアライメントのための新しい変分非局所ネットワークベース外乱除去フレームワークを開発した。
そこで本稿では, 投票に基づく不整合探索手法を提案し, 変換推定のための高品質な仮説的不整合をクラスタリングする。
論文 参考訳(メタデータ) (2023-04-04T03:48:56Z) - ZigZag: Universal Sampling-free Uncertainty Estimation Through Two-Step
Inference [59.17907459152588]
汎用的でデプロイが容易なサンプリング不要のアプローチを導入します。
我々は,最先端手法と同等の信頼性のある不確実性推定を,計算コストを著しく低減した形で生成する。
論文 参考訳(メタデータ) (2022-11-21T13:23:09Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Gaining Outlier Resistance with Progressive Quantiles: Fast Algorithms
and Theoretical Studies [1.6457778420360534]
任意の損失関数を強固化するために, 外部抵抗推定の枠組みを導入する。
通常のデータセットでは、データ再見積の回数を大幅に削減できるような、開始点の要件を緩和する新しい手法が提案されている。
得られた推定器は、必ずしも大域的でも大域的でもなくても、両方の低次元において最適性を楽しむことができる。
論文 参考訳(メタデータ) (2021-12-15T20:35:21Z) - Practical, Fast and Robust Point Cloud Registration for 3D Scene
Stitching and Object Localization [6.8858952804978335]
3Dポイントクラウドの登録は、リモートセンシング、フォトグラメトリー、ロボティクス、幾何学的コンピュータビジョンの基本的な問題である。
極端外れ率のポイントクラウド登録問題に対して,VOCRAという新しい高速かつ高堅牢なソリューションを提案する。
我々の解法VOCRAは99%以上の外れ値に対して堅牢であり、最先端の競合よりも時間効率が高いことを示す。
論文 参考訳(メタデータ) (2021-11-08T01:49:04Z) - Certifiable Outlier-Robust Geometric Perception: Exact Semidefinite
Relaxations and Scalable Global Optimization [29.738513596063946]
本稿では,外接点の存在下でのロバストな幾何学的知覚のためのアルゴリズム設計のための,最初の汎用フレームワークを提案する。
我々の実験では、SDP緩和はアプリケーション間で最大で外れ率で正確であることを実証した。
論文 参考訳(メタデータ) (2021-09-07T21:42:16Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Fast Uncertainty Quantification for Deep Object Pose Estimation [91.09217713805337]
深層学習に基づくオブジェクトポーズ推定は、しばしば信頼できない、自信過剰である。
本研究では,6-DoFオブジェクトのポーズ推定のための,シンプルで効率的かつプラグアンドプレイなUQ手法を提案する。
論文 参考訳(メタデータ) (2020-11-16T06:51:55Z) - ROBIN: a Graph-Theoretic Approach to Reject Outliers in Robust
Estimation using Invariants [30.19476775410544]
外乱は典型的には誤ったデータアソシエーションや特徴マッチングの結果である。
頑健な推定に対する現在のアプローチは、多くの外れ値が存在する場合、正確に見積もることができない。
本稿では, プルー・アウトレーヤへのアプローチについて述べる。
論文 参考訳(メタデータ) (2020-11-07T02:09:33Z) - REDE: End-to-end Object 6D Pose Robust Estimation Using Differentiable
Outliers Elimination [15.736699709454857]
RGB-Dデータを用いた新しいエンドツーエンドオブジェクトポーズ推定器REDEを提案する。
また,候補結果と信頼度を同時に抑制する相違可能な外乱除去手法を提案する。
3つのベンチマークデータセットの実験結果は、REDEが最先端のアプローチをわずかに上回っていることを示している。
論文 参考訳(メタデータ) (2020-10-24T06:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。