論文の概要: SST-Calib: Simultaneous Spatial-Temporal Parameter Calibration between
LIDAR and Camera
- arxiv url: http://arxiv.org/abs/2207.03704v1
- Date: Fri, 8 Jul 2022 06:21:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-11 14:30:25.069202
- Title: SST-Calib: Simultaneous Spatial-Temporal Parameter Calibration between
LIDAR and Camera
- Title(参考訳): SST-Calib:LIDARとカメラの同時時空間パラメータ校正
- Authors: Akio Kodaira, Yiyang Zhou, Pengwei Zang, Wei Zhan, Masayoshi Tomizuka
- Abstract要約: カメラLIDARスイートの校正における幾何学的パラメータと時間的パラメータを共同で推定するセグメンテーションベースのフレームワークを提案する。
提案アルゴリズムは,KITTIデータセット上でテストし,幾何学的パラメータと時間的パラメータの正確なリアルタイムキャリブレーションを示す。
- 参考スコア(独自算出の注目度): 26.59231069298659
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With information from multiple input modalities, sensor fusion-based
algorithms usually out-perform their single-modality counterparts in robotics.
Camera and LIDAR, with complementary semantic and depth information, are the
typical choices for detection tasks in complicated driving environments. For
most camera-LIDAR fusion algorithms, however, the calibration of the sensor
suite will greatly impact the performance. More specifically, the detection
algorithm usually requires an accurate geometric relationship among multiple
sensors as the input, and it is often assumed that the contents from these
sensors are captured at the same time. Preparing such sensor suites involves
carefully designed calibration rigs and accurate synchronization mechanisms,
and the preparation process is usually done offline. In this work, a
segmentation-based framework is proposed to jointly estimate the geometrical
and temporal parameters in the calibration of a camera-LIDAR suite. A semantic
segmentation mask is first applied to both sensor modalities, and the
calibration parameters are optimized through pixel-wise bidirectional loss. We
specifically incorporated the velocity information from optical flow for
temporal parameters. Since supervision is only performed at the segmentation
level, no calibration label is needed within the framework. The proposed
algorithm is tested on the KITTI dataset, and the result shows an accurate
real-time calibration of both geometric and temporal parameters.
- Abstract(参考訳): 複数の入力モダリティからの情報によって、センサー融合ベースのアルゴリズムは、通常、ロボット工学において単独のモダリティよりも優れている。
カメラとLIDARは相補的な意味情報と深度情報を持ち、複雑な運転環境における検出タスクの典型的な選択である。
しかし、ほとんどのカメラとLIDARの融合アルゴリズムでは、センサースイートの校正が性能に大きな影響を与える。
より具体的には、検出アルゴリズムは通常、入力として複数のセンサ間の正確な幾何学的関係を必要とする。
このようなセンサースイートの準備には、慎重に設計された校正リグと正確な同期機構が含まれ、通常、準備プロセスはオフラインで行われる。
本研究では,カメラLIDARスイートのキャリブレーションにおける幾何学的パラメータと時間的パラメータを共同で推定するセグメンテーションに基づくフレームワークを提案する。
まず、セマンティクスセグメンテーションマスクをセンサのモダリティの両方に適用し、キャリブレーションパラメータを画素方向の双方向損失により最適化する。
我々は,光流からの速度情報を時間パラメータに組み込んだ。
監視はセグメンテーションレベルでのみ行われるため、フレームワーク内ではキャリブレーションラベルは必要ない。
提案アルゴリズムは,KITTIデータセット上でテストし,幾何学的パラメータと時間的パラメータの正確なリアルタイムキャリブレーションを示す。
関連論文リスト
- YOCO: You Only Calibrate Once for Accurate Extrinsic Parameter in LiDAR-Camera Systems [0.5999777817331317]
カメラとLiDARからなるマルチセンサー融合システムでは、正確な外部キャリブレーションがシステムの長期的な安定性と環境の正確な認識に寄与する。
本稿では,LiDARカメラシステムにおいて,対応点登録の必要性を回避するための完全自動外部校正手法を提案する。
論文 参考訳(メタデータ) (2024-07-25T13:44:49Z) - Learning to Make Keypoints Sub-Pixel Accurate [80.55676599677824]
本研究は,2次元局所特徴の検出におけるサブピクセル精度の課題に対処する。
本稿では,検出された特徴に対するオフセットベクトルを学習することにより,サブピクセル精度で検出器を拡張できる新しいネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T12:39:56Z) - Joint Spatial-Temporal Calibration for Camera and Global Pose Sensor [0.4143603294943439]
ロボット工学において、モーションキャプチャシステムはローカライズアルゴリズムの精度を測定するために広く利用されている。
これらの機能は、カメラとグローバルポーズセンサーの間で正確で信頼性の高い時空間キャリブレーションパラメータを必要とする。
本研究では,これらのキャリブレーションパラメータを推定する新しい2つの手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T20:56:14Z) - SOAC: Spatio-Temporal Overlap-Aware Multi-Sensor Calibration using Neural Radiance Fields [10.958143040692141]
自律運転のような急速に進化する領域では、動作精度と安定性を確保するために、異なるモードの複数のセンサーを使用することが不可欠である。
各センサが提供した情報を単一の共通フレームで正確に活用するためには、これらのセンサを正確に校正することが不可欠である。
我々は、共通の表現において異なるモダリティを表現するために、ニューラルラジアンス場(Neural Radiance Fields)の能力を利用する。
論文 参考訳(メタデータ) (2023-11-27T13:25:47Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Continuous Target-free Extrinsic Calibration of a Multi-Sensor System
from a Sequence of Static Viewpoints [0.0]
モバイルロボットアプリケーションは、プラットフォーム上の個々のセンサーの幾何学的位置に関する正確な情報を必要とする。
誤校正パラメータは、典型的なロボット推定タスクに悪影響を及ぼす。
本稿では,ロボットの動作中にキャリブレーションパラメータを連続的に推定する手法を提案する。
論文 参考訳(メタデータ) (2022-07-08T09:36:17Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。