論文の概要: U-ARE-ME: Uncertainty-Aware Rotation Estimation in Manhattan Environments
- arxiv url: http://arxiv.org/abs/2403.15583v1
- Date: Fri, 22 Mar 2024 19:14:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 22:02:34.084471
- Title: U-ARE-ME: Uncertainty-Aware Rotation Estimation in Manhattan Environments
- Title(参考訳): U-ARE-ME:マンハッタン環境における不確実性を考慮した回転推定
- Authors: Aalok Patwardhan, Callum Rhodes, Gwangbin Bae, Andrew J. Davison,
- Abstract要約: 本稿では、未校正RGB画像からの不確実性とともに、カメラ回転を推定するアルゴリズムであるU-ARE-MEを提案する。
実験の結果,U-ARE-MEはRGB-D法と互換性があり,特徴量ベースのSLAM法よりも頑健であることがわかった。
- 参考スコア(独自算出の注目度): 18.534567960292403
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camera rotation estimation from a single image is a challenging task, often requiring depth data and/or camera intrinsics, which are generally not available for in-the-wild videos. Although external sensors such as inertial measurement units (IMUs) can help, they often suffer from drift and are not applicable in non-inertial reference frames. We present U-ARE-ME, an algorithm that estimates camera rotation along with uncertainty from uncalibrated RGB images. Using a Manhattan World assumption, our method leverages the per-pixel geometric priors encoded in single-image surface normal predictions and performs optimisation over the SO(3) manifold. Given a sequence of images, we can use the per-frame rotation estimates and their uncertainty to perform multi-frame optimisation, achieving robustness and temporal consistency. Our experiments demonstrate that U-ARE-ME performs comparably to RGB-D methods and is more robust than sparse feature-based SLAM methods. We encourage the reader to view the accompanying video at https://callum-rhodes.github.io/U-ARE-ME for a visual overview of our method.
- Abstract(参考訳): 単一の画像からのカメラ回転推定は難しい作業であり、しばしば深度データと/またはカメラ固有の情報を必要とする。
慣性測定ユニット(IMU)のような外部センサーは役に立つが、しばしばドリフトに悩まされ、慣性基準フレームには適用できない。
本稿では、未校正RGB画像からの不確実性とともに、カメラ回転を推定するアルゴリズムであるU-ARE-MEを提案する。
マンハッタン・ワールドの仮定を用いて, 単像面正規予測に符号化された画素ごとの幾何学的先行値を活用し, SO(3)多様体上で最適化を行う。
画像列が与えられた場合、フレーム単位の回転推定値とその不確実性を用いて、複数フレームの最適化を行い、堅牢性と時間的整合性を達成する。
実験の結果,U-ARE-MEはRGB-D法と互換性があり,特徴量ベースのSLAM法よりも頑健であることがわかった。
本手法の視覚的概要はhttps://callum-rhodes.github.io/U-ARE-MEで見ることを推奨する。
関連論文リスト
- Boost 3D Reconstruction using Diffusion-based Monocular Camera Calibration [34.18403601269181]
DM-Calibは単一の入力画像からピンホールカメラ固有のパラメータを推定するための拡散に基づくアプローチである。
我々は、カメラ画像と呼ばれる新しい画像ベース表現を導入し、数値カメラの内在を無意味に符号化する。
一つのRGB入力からカメラ画像を生成するための安定拡散モデルを微調整することにより、RANSAC操作を介してカメラ固有の特徴を抽出することができる。
論文 参考訳(メタデータ) (2024-11-26T09:04:37Z) - Gravity-aligned Rotation Averaging with Circular Regression [53.81374943525774]
我々は,重力方向をグローバルパイプラインの回転平均位相に統合する原理的アプローチを導入する。
4つの大規模データセットで最先端の精度を実現する。
論文 参考訳(メタデータ) (2024-10-16T17:37:43Z) - UniDepth: Universal Monocular Metric Depth Estimation [81.80512457953903]
ドメインをまたいだ単一の画像からメートル法3Dシーンを再構成できる新しいモデルUniDepthを提案する。
我々のモデルは擬似球面出力表現を利用しており、カメラと奥行きの表現を歪めている。
ゼロショット方式における10のデータセットの詳細な評価は、一貫してUniDepthの優れた性能を示している。
論文 参考訳(メタデータ) (2024-03-27T18:06:31Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - Robust Frame-to-Frame Camera Rotation Estimation in Crowded Scenes [8.061773364318313]
本稿では,携帯型モノクロビデオから,混み合った現実世界のシーンにおけるカメラ回転推定手法を提案する。
我々は、17の動画シーケンスに対して、高精度で厳密に検証された地上真実を持つ新しいデータセットとベンチマークを提供する。
これは、混み合ったシーンに対する強力な新しいパフォーマンスポイントであり、コンピュータビジョンにとって重要な設定である。
論文 参考訳(メタデータ) (2023-09-15T17:44:07Z) - MV-ROPE: Multi-view Constraints for Robust Category-level Object Pose and Size Estimation [23.615122326731115]
本稿では,RGBビデオストリームを利用した新しいソリューションを提案する。
本フレームワークは,スケール対応単分子高密度SLAMソリューション,軽量オブジェクトポーズ予測器,オブジェクトレベルのポーズグラフの3つのモジュールから構成される。
提案手法は,高精細度情報を用いた公開データセットを用いた場合,最先端のRGB-D手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-08-17T08:29:54Z) - RelPose: Predicting Probabilistic Relative Rotation for Single Objects
in the Wild [73.1276968007689]
本稿では、任意のオブジェクトの複数の画像からカメラ視点を推定するデータ駆動手法について述べる。
本手法は, 画像の鮮明さから, 最先端のSfM法とSLAM法より優れていることを示す。
論文 参考訳(メタデータ) (2022-08-11T17:59:59Z) - Visual Odometry for RGB-D Cameras [3.655021726150368]
本稿では,静止環境を走行する移動RGB-Dカメラの高速かつ高精度な計測手法を開発した。
提案アルゴリズムは,SURF を特徴抽出器として,RANSAC を用いて結果をフィルタリングし,最小平均角を使って連続するビデオフレーム間の6つのパラメータの剛性変換を推定する。
論文 参考訳(メタデータ) (2022-03-28T21:49:12Z) - FLEX: Parameter-free Multi-view 3D Human Motion Reconstruction [70.09086274139504]
マルチビューアルゴリズムはカメラパラメータ、特にカメラ間の相対的な位置に強く依存します。
エンドツーエンドのパラメータフリーマルチビューモデルであるFLEXを紹介します。
Human3.6MおよびKTH Multi-view Football IIデータセットの結果を実証する。
論文 参考訳(メタデータ) (2021-05-05T09:08:12Z) - Extreme Rotation Estimation using Dense Correlation Volumes [73.35119461422153]
本稿では,RGB画像対の相対的な3次元回転を極端に推定する手法を提案する。
画像が重なり合わなくても、それらの幾何学的関係に関して豊富な隠れた手がかりがあるかもしれないと観察する。
本稿では,2つの入力画像間の全ての点を比較することで,そのような暗黙の手がかりを自動的に学習できるネットワーク設計を提案する。
論文 参考訳(メタデータ) (2021-04-28T02:00:04Z) - Superaccurate Camera Calibration via Inverse Rendering [0.19336815376402716]
逆レンダリングの原理を用いたカメラキャリブレーションの新しい手法を提案する。
検出された特徴点のみに頼らず、内部パラメータの推定と校正対象のポーズを用いて光学的特徴の非フォトリアリスティックな等価性を暗黙的に描画する。
論文 参考訳(メタデータ) (2020-03-20T10:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。