論文の概要: Joint Spatial-Temporal Calibration for Camera and Global Pose Sensor
- arxiv url: http://arxiv.org/abs/2403.00976v1
- Date: Fri, 1 Mar 2024 20:56:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 15:49:04.171071
- Title: Joint Spatial-Temporal Calibration for Camera and Global Pose Sensor
- Title(参考訳): カメラとグローバルポーズセンサの空間時空間校正
- Authors: Junlin Song, Antoine Richard, Miguel Olivares-Mendez
- Abstract要約: ロボット工学において、モーションキャプチャシステムはローカライズアルゴリズムの精度を測定するために広く利用されている。
これらの機能は、カメラとグローバルポーズセンサーの間で正確で信頼性の高い時空間キャリブレーションパラメータを必要とする。
本研究では,これらのキャリブレーションパラメータを推定する新しい2つの手法を提案する。
- 参考スコア(独自算出の注目度): 0.4143603294943439
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In robotics, motion capture systems have been widely used to measure the
accuracy of localization algorithms. Moreover, this infrastructure can also be
used for other computer vision tasks, such as the evaluation of Visual
(-Inertial) SLAM dynamic initialization, multi-object tracking, or automatic
annotation. Yet, to work optimally, these functionalities require having
accurate and reliable spatial-temporal calibration parameters between the
camera and the global pose sensor. In this study, we provide two novel
solutions to estimate these calibration parameters. Firstly, we design an
offline target-based method with high accuracy and consistency.
Spatial-temporal parameters, camera intrinsic, and trajectory are optimized
simultaneously. Then, we propose an online target-less method, eliminating the
need for a calibration target and enabling the estimation of time-varying
spatial-temporal parameters. Additionally, we perform detailed observability
analysis for the target-less method. Our theoretical findings regarding
observability are validated by simulation experiments and provide explainable
guidelines for calibration. Finally, the accuracy and consistency of two
proposed methods are evaluated with hand-held real-world datasets where
traditional hand-eye calibration method do not work.
- Abstract(参考訳): ロボット工学において、モーションキャプチャシステムはローカライゼーションアルゴリズムの精度を測定するために広く使われている。
さらに、このインフラストラクチャは、視覚的な(慣性的な)slam動的初期化の評価、マルチオブジェクト追跡、自動アノテーションなど、他のコンピュータビジョンタスクにも使用することができる。
しかし、最適に機能するためには、カメラとグローバルポーズセンサーの間に正確で信頼性の高い時空間キャリブレーションパラメータが必要である。
本研究では,これらのキャリブレーションパラメータを推定する新しい2つの手法を提案する。
まず,高い精度と一貫性を備えたオフラインターゲットベース手法を設計する。
空間時間パラメータ、カメラ固有のパラメータ、軌跡を同時に最適化する。
そこで本研究では,キャリブレーション対象を不要とし,時変空間-時間パラメータの推定を可能にするオンラインターゲットレス手法を提案する。
さらに,ターゲットレス手法の詳細な可観測性解析を行う。
観測可能性に関する理論的知見をシミュレーション実験により検証し,キャリブレーションのガイドラインを提供する。
最後に,従来のハンドアイキャリブレーション手法が動作しないハンドヘルド実世界データセットを用いて,提案手法の精度と一貫性を評価する。
関連論文リスト
- Kalib: Markerless Hand-Eye Calibration with Keypoint Tracking [52.4190876409222]
ハンドアイキャリブレーションでは、カメラとロボット間の変換を推定する。
ディープラーニングの最近の進歩は、マーカーレス技術を提供するが、それらは課題を提示している。
自動的かつ普遍的なマーカーレスハンドアイキャリブレーションパイプラインであるKalibを提案する。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - P2O-Calib: Camera-LiDAR Calibration Using Point-Pair Spatial Occlusion
Relationship [1.6921147361216515]
本研究では,3次元空間における閉塞関係を用いた2次元3次元エッジポイント抽出に基づく新たなターゲットレスキャリブレーション手法を提案する。
本手法は,高画質カメラ-LiDARキャリブレーションによる実用的応用に寄与する,低誤差かつ高ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-11-04T14:32:55Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Continuous Target-free Extrinsic Calibration of a Multi-Sensor System
from a Sequence of Static Viewpoints [0.0]
モバイルロボットアプリケーションは、プラットフォーム上の個々のセンサーの幾何学的位置に関する正確な情報を必要とする。
誤校正パラメータは、典型的なロボット推定タスクに悪影響を及ぼす。
本稿では,ロボットの動作中にキャリブレーションパラメータを連続的に推定する手法を提案する。
論文 参考訳(メタデータ) (2022-07-08T09:36:17Z) - Unified Data Collection for Visual-Inertial Calibration via Deep
Reinforcement Learning [24.999540933593273]
本研究では,ロボットアーム上で自動データ収集を行う動作ポリシーを学習するための新しい定式化を提案する。
本手法はモデルフリー深部強化学習を用いてキャリブレーション過程をコンパクトにモデル化する。
シミュレーションでは、手作りのポリシーよりも10倍速くキャリブレーションを実行できます。
論文 参考訳(メタデータ) (2021-09-30T10:03:56Z) - Leveraging Spatial and Photometric Context for Calibrated Non-Lambertian
Photometric Stereo [61.6260594326246]
空間と測光の両方を同時に活用できる効率的な完全畳み込みアーキテクチャを提案する。
分離可能な4D畳み込みと2D熱マップを使うことで、サイズが小さくなり、効率が向上する。
論文 参考訳(メタデータ) (2021-03-22T18:06:58Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Pushing the Envelope of Rotation Averaging for Visual SLAM [69.7375052440794]
視覚SLAMシステムのための新しい最適化バックボーンを提案する。
従来の単分子SLAMシステムの精度, 効率, 堅牢性を向上させるために, 平均化を活用している。
我々のアプローチは、公開ベンチマークの最先端技術に対して、同等の精度で最大10倍高速に表示することができる。
論文 参考訳(メタデータ) (2020-11-02T18:02:26Z) - Spatiotemporal Camera-LiDAR Calibration: A Targetless and Structureless
Approach [32.15405927679048]
ターゲットレスで構造のないカメラ-DARキャリブレーション法を提案する。
本手法は, 時間的パラメータの初期調整を必要としないような, 閉形式解と非構造束を結合する。
提案手法の精度とロバスト性をシミュレーションおよび実データ実験により実証する。
論文 参考訳(メタデータ) (2020-01-17T07:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。