論文の概要: gDLS*: Generalized Pose-and-Scale Estimation Given Scale and Gravity
Priors
- arxiv url: http://arxiv.org/abs/2004.02052v1
- Date: Sun, 5 Apr 2020 00:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 12:52:30.320366
- Title: gDLS*: Generalized Pose-and-Scale Estimation Given Scale and Gravity
Priors
- Title(参考訳): gDLS*: スケールと重力を前提とした一般化されたPose-and-Scaleの推定
- Authors: Victor Fragoso, Joseph DeGol, Gang Hua
- Abstract要約: gDLS* は、回転とスケール先行を利用する一般化されたカメラモデルポーズ・アンド・スケール推定器である。
合成データと実データの両方に関する実験は、gDLS*が推定過程を加速し、スケールを改善し、精度を向上させることを一貫して示している。
- 参考スコア(独自算出の注目度): 24.873863009025946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many real-world applications in augmented reality (AR), 3D mapping, and
robotics require both fast and accurate estimation of camera poses and scales
from multiple images captured by multiple cameras or a single moving camera.
Achieving high speed and maintaining high accuracy in a pose-and-scale
estimator are often conflicting goals. To simultaneously achieve both, we
exploit a priori knowledge about the solution space. We present gDLS*, a
generalized-camera-model pose-and-scale estimator that utilizes rotation and
scale priors. gDLS* allows an application to flexibly weigh the contribution of
each prior, which is important since priors often come from noisy sensors.
Compared to state-of-the-art generalized-pose-and-scale estimators (e.g.,
gDLS), our experiments on both synthetic and real data consistently demonstrate
that gDLS* accelerates the estimation process and improves scale and pose
accuracy.
- Abstract(参考訳): 拡張現実(ar)や3dマッピング、ロボット工学における現実世界のアプリケーションの多くは、複数のカメラや1つの移動カメラで撮影された複数の画像から、カメラのポーズとスケールを高速かつ正確に推定する必要がある。
ポーズ・アンド・スケール推定器における高速達成と高精度維持は、しばしば目標と矛盾する。
両方を同時に達成するために、ソリューション空間に関する事前知識を利用する。
回転とスケールプリエントを利用した一般化カメラモデルのポーズ・アンド・スケール推定器であるgdls*を提案する。
gDLS*は、アプリケーションが各前のコントリビューションを柔軟に測定することを可能にする。
最先端の汎用・大規模推定器(gDLSなど)と比較して、合成データと実データの両方に対する実験は、gDLS*が推定プロセスを加速し、スケールを改善し、精度を向上することを示す。
関連論文リスト
- SpecTrack: Learned Multi-Rotation Tracking via Speckle Imaging [7.048488981652353]
レーザースペックルイメージング(LSI)は、ポーズ推定精度を改善するための有望なポテンシャルを提供する。
提案するLSIベーストラッキング(SpecTrack)は,レンズレスカメラとレトロレフレクタマーカーを符号化開口で捕捉し,高精度な多軸回転ポーズ推定を実現する。
当社の社内ビルドテストベッドを使用した大規模な試験では、SpecTrackの精度は0.31degで、最先端のアプローチよりも大幅に向上し、精度は200%まで向上した。
論文 参考訳(メタデータ) (2024-10-08T13:29:52Z) - SRPose: Two-view Relative Pose Estimation with Sparse Keypoints [51.49105161103385]
SRPoseは、カメラ・トゥ・ワールドおよびオブジェクト・トゥ・カメラシナリオにおける2ビュー相対ポーズ推定のためのスパースキーポイントベースのフレームワークである。
精度と速度の点で最先端の手法と比較して、競争力や優れた性能を達成する。
さまざまな画像サイズやカメラ固有の機能に対して堅牢であり、低コンピューティングリソースでデプロイすることができる。
論文 参考訳(メタデータ) (2024-07-11T05:46:35Z) - CasCalib: Cascaded Calibration for Motion Capture from Sparse Unsynchronized Cameras [18.51320244029833]
オフザシェルフ3次元ポーズ推定器を用いた単眼画像から3次元人間のポーズを推定できるようになった。
多くの実用アプリケーションは、マルチビューキューとカメラキャリブレーションが必要な、きめ細かい絶対ポーズ情報を必要とする。
私たちのゴールは、時間同期を含む完全自動化と、固有のカメラキャリブレーションと、外部カメラキャリブレーションです。
論文 参考訳(メタデータ) (2024-05-10T23:02:23Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - WHAC: World-grounded Humans and Cameras [37.877565981937586]
我々は,表現的パラメトリック人間モデル(SMPL-X)と対応するカメラのポーズを共同で再現することを目指している。
WHACと呼ばれる新しいフレームワークを導入し、世界規模で表現された人間のポーズと形状の推定を容易にする。
我々は、正確に注釈付けされた人間とカメラを含む新しい合成データセットWHAC-A-Moleを提案する。
論文 参考訳(メタデータ) (2024-03-19T17:58:02Z) - GGRt: Towards Pose-free Generalizable 3D Gaussian Splatting in Real-time [112.32349668385635]
GGRtは、現実のカメラポーズの必要性を軽減する、一般化可能な新しいビュー合成のための新しいアプローチである。
最初のポーズフリーの一般化可能な3D-GSフレームワークとして、GGRtは$ge$5 FPSで、リアルタイムレンダリングは$ge$100 FPSで実現している。
論文 参考訳(メタデータ) (2024-03-15T09:47:35Z) - Ambiguity-Aware Multi-Object Pose Optimization for Visually-Assisted
Robot Manipulation [17.440729138126162]
あいまいさを意識した6Dオブジェクトポーズ推定ネットワークPrimA6D++を汎用的不確実性予測手法として提案する。
提案手法は,T-LESS と YCB-Video のデータセットの性能向上を示す。
さらに,視覚支援ロボット操作のためのリアルタイムシーン認識機能を示す。
論文 参考訳(メタデータ) (2022-11-02T08:57:20Z) - DeepRM: Deep Recurrent Matching for 6D Pose Refinement [77.34726150561087]
DeepRMは、6Dポーズ改善のための新しいリカレントネットワークアーキテクチャである。
アーキテクチャにはLSTMユニットが組み込まれ、各改善ステップを通じて情報を伝達する。
DeepRMは、2つの広く受け入れられている課題データセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-28T16:18:08Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。