論文の概要: Continuous Target-free Extrinsic Calibration of a Multi-Sensor System
from a Sequence of Static Viewpoints
- arxiv url: http://arxiv.org/abs/2207.03785v1
- Date: Fri, 8 Jul 2022 09:36:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 10:35:30.807019
- Title: Continuous Target-free Extrinsic Calibration of a Multi-Sensor System
from a Sequence of Static Viewpoints
- Title(参考訳): 静的な視点からのマルチセンサシステムの連続的目標フリー外部キャリブレーション
- Authors: Philipp Glira, Christoph Weidinger, Johann Weichselbaum
- Abstract要約: モバイルロボットアプリケーションは、プラットフォーム上の個々のセンサーの幾何学的位置に関する正確な情報を必要とする。
誤校正パラメータは、典型的なロボット推定タスクに悪影響を及ぼす。
本稿では,ロボットの動作中にキャリブレーションパラメータを連続的に推定する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobile robotic applications need precise information about the geometric
position of the individual sensors on the platform. This information is given
by the extrinsic calibration parameters which define how the sensor is rotated
and translated with respect to a fixed reference coordinate system. Erroneous
calibration parameters have a negative impact on typical robotic estimation
tasks, e.g. SLAM. In this work we propose a new method for a continuous
estimation of the calibration parameters during operation of the robot. The
parameter estimation is based on the matching of point clouds which are
acquired by the sensors from multiple static viewpoints. Consequently, our
method does not need any special calibration targets and is applicable to any
sensor whose measurements can be converted to point clouds. We demonstrate the
suitability of our method by calibrating a multi-sensor system composed by 2
lidar sensors, 3 cameras, and an imaging radar sensor.
- Abstract(参考訳): モバイルロボットアプリケーションは、プラットフォーム上の個々のセンサーの幾何学的位置に関する正確な情報を必要とする。
この情報は、センサの回転や変換を固定された基準座標系に対して定義した外部キャリブレーションパラメータによって与えられる。
誤ったキャリブレーションパラメータは、例えばslamのような典型的なロボット推定タスクに悪影響を及ぼす。
本研究では,ロボットの動作中にキャリブレーションパラメータを連続的に推定する手法を提案する。
パラメータ推定は、複数の静的な視点からセンサによって取得される点雲のマッチングに基づいている。
したがって,本手法は特別な校正対象を必要とせず,測定値が点雲に変換できるセンサに適用可能である。
本研究では,2つのlidarセンサ,3台のカメラ,および撮像レーダセンサからなるマルチセンサシステムのキャリブレーションにより,提案手法の適合性を示す。
関連論文リスト
- Kalib: Markerless Hand-Eye Calibration with Keypoint Tracking [52.4190876409222]
ハンドアイキャリブレーションでは、カメラとロボット間の変換を推定する。
ディープラーニングの最近の進歩は、マーカーレス技術を提供するが、それらは課題を提示している。
自動的かつ普遍的なマーカーレスハンドアイキャリブレーションパイプラインであるKalibを提案する。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - Joint Spatial-Temporal Calibration for Camera and Global Pose Sensor [0.4143603294943439]
ロボット工学において、モーションキャプチャシステムはローカライズアルゴリズムの精度を測定するために広く利用されている。
これらの機能は、カメラとグローバルポーズセンサーの間で正確で信頼性の高い時空間キャリブレーションパラメータを必要とする。
本研究では,これらのキャリブレーションパラメータを推定する新しい2つの手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T20:56:14Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - SST-Calib: Simultaneous Spatial-Temporal Parameter Calibration between
LIDAR and Camera [26.59231069298659]
カメラLIDARスイートの校正における幾何学的パラメータと時間的パラメータを共同で推定するセグメンテーションベースのフレームワークを提案する。
提案アルゴリズムは,KITTIデータセット上でテストし,幾何学的パラメータと時間的パラメータの正確なリアルタイムキャリブレーションを示す。
論文 参考訳(メタデータ) (2022-07-08T06:21:52Z) - Robot Self-Calibration Using Actuated 3D Sensors [0.0]
本稿では,ロボットのキャリブレーションをオフラインのSLAM問題として扱う。
これにより、任意の眼深度センサのみを用いてロボットのキャリブレーションを行うことができる。
各種の3Dセンサーを装着した実ロボットに対して,システムの詳細評価を行った。
論文 参考訳(メタデータ) (2022-06-07T16:35:08Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Robust calibration of multiparameter sensors via machine learning at the
single-photon level [0.0]
統合フォトニックデバイスの校正のためのニューラルネットワークに基づくアルゴリズムの応用を実証する。
適切なネットワークトレーニング戦略を慎重に選択することで,信頼性の高い評価が達成可能であることを示す。
論文 参考訳(メタデータ) (2020-09-15T14:22:47Z) - Automatic LiDAR Extrinsic Calibration System using Photodetector and
Planar Board for Large-scale Applications [110.32028864986918]
本研究は, PD-target System と呼ばれる光検出器アレイを組み込んだターゲットボードの新たな概念を提案し, ターゲット表面上の対応レーザビームの正確な位置を求める。
提案手法を低分解能LiDARで実験した結果,LiDARオフセットポーズは0.1度と3mmの精度で推定可能であることがわかった。
論文 参考訳(メタデータ) (2020-08-24T16:28:40Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z) - Spatiotemporal Camera-LiDAR Calibration: A Targetless and Structureless
Approach [32.15405927679048]
ターゲットレスで構造のないカメラ-DARキャリブレーション法を提案する。
本手法は, 時間的パラメータの初期調整を必要としないような, 閉形式解と非構造束を結合する。
提案手法の精度とロバスト性をシミュレーションおよび実データ実験により実証する。
論文 参考訳(メタデータ) (2020-01-17T07:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。