論文の概要: eKalibr-Inertial: Continuous-Time Spatiotemporal Calibration for Event-Based Visual-Inertial Systems
- arxiv url: http://arxiv.org/abs/2509.05923v1
- Date: Sun, 07 Sep 2025 04:44:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.779733
- Title: eKalibr-Inertial: Continuous-Time Spatiotemporal Calibration for Event-Based Visual-Inertial Systems
- Title(参考訳): eKalibr-Inertial:イベントベースビジュアル慣性システムのための連続時間時空間校正
- Authors: Shuolong Chen, Xingxing Li, Liu Yuan,
- Abstract要約: エゴモーション推定では、センサー間の相補的な特性のため、視覚慣性設定が一般的である。
eKalibr-Inertialは、イベントベースの視覚慣性システムのための正確な時間的キャリブレータである。
- 参考スコア(独自算出の注目度): 7.192326181604602
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The bioinspired event camera, distinguished by its exceptional temporal resolution, high dynamic range, and low power consumption, has been extensively studied in recent years for motion estimation, robotic perception, and object detection. In ego-motion estimation, the visual-inertial setup is commonly adopted due to complementary characteristics between sensors (e.g., scale perception and low drift). For optimal event-based visual-inertial fusion, accurate spatiotemporal (extrinsic and temporal) calibration is required. In this work, we present eKalibr-Inertial, an accurate spatiotemporal calibrator for event-based visual-inertial systems, utilizing the widely used circle grid board. Building upon the grid pattern recognition and tracking methods in eKalibr and eKalibr-Stereo, the proposed method starts with a rigorous and efficient initialization, where all parameters in the estimator would be accurately recovered. Subsequently, a continuous-time-based batch optimization is conducted to refine the initialized parameters toward better states. The results of extensive real-world experiments show that eKalibr-Inertial can achieve accurate event-based visual-inertial spatiotemporal calibration. The implementation of eKalibr-Inertial is open-sourced at (https://github.com/Unsigned-Long/eKalibr) to benefit the research community.
- Abstract(参考訳): バイオインスパイアされたイベントカメラは、その例外的な時間分解能、高ダイナミックレンジ、低消費電力により区別され、近年、運動推定、ロボット知覚、物体検出のために広く研究されている。
エゴモーション推定では、センサー間の相補的な特性(例えば、スケール知覚、低ドリフト)により、視覚慣性設定が一般的に採用される。
最適なイベントベースビジュアル・慣性融合には、正確な時空間(外外および時空間)キャリブレーションが必要である。
本稿では,イベントベースの視覚慣性システムのための正確な時空間キャリブレータ eKalibr-Inertial について述べる。
eKalibr と eKalibr-Stereo のグリッドパターン認識と追跡手法に基づいて、提案手法は厳密で効率的な初期化から始まり、推定器内の全てのパラメータを正確に復元する。
その後、より優れた状態に向けて初期化パラメータを洗練するために、連続時間ベースのバッチ最適化を行う。
実世界の大規模な実験の結果、eKalibr-Inertialは正確な事象ベースの視覚-慣性時空間キャリブレーションを達成できることが示された。
eKalibr-Inertialの実装は (https://github.com/Unsigned-Long/eKalibr) でオープンソースとして公開されている。
関連論文リスト
- Temporal and Rotational Calibration for Event-Centric Multi-Sensor Systems [24.110040599070796]
イベントカメラは画素レベルの明るさ変化に応じて非同期信号を生成する。
イベント中心型マルチセンサシステムに適した動きに基づく時間・回転キャリブレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-18T01:53:27Z) - EMoTive: Event-guided Trajectory Modeling for 3D Motion Estimation [59.33052312107478]
イベントカメラは、シーン変化に対する連続的適応ピクセルレベル応答による3次元モーション推定の可能性を提供する。
本稿では,イベント誘導パラメトリック曲線を用いた一様軌道をモデル化するイベントベースフレームワークであるEMoveについて述べる。
動作表現には,事象誘導下での空間的特徴と時間的特徴を融合する密度認識適応機構を導入する。
最終3次元運動推定は、パラメトリック軌道、流れ、深度運動場の多時間サンプリングによって達成される。
論文 参考訳(メタデータ) (2025-03-14T13:15:54Z) - eKalibr: Dynamic Intrinsic Calibration for Event Cameras From First Principles of Events [1.237454174824584]
イベントカメラの固有キャリブレーション手法eKalibrを提案する。
eKalibrは、慎重に設計されたイベントベースのサークルグリッドパターン認識アルゴリズムに基づいている。
パターン抽出と固有キャリブレーションの観点からeKalibrの性能を評価する実験を行った。
論文 参考訳(メタデータ) (2025-01-10T03:41:03Z) - Universal Online Temporal Calibration for Optimization-based Visual-Inertial Navigation Systems [13.416013522770905]
最適化に基づくビジュアル慣性ナビゲーションシステムのための汎用的なオンライン時間的キャリブレーション戦略を提案する。
我々は、最適化残差モデルにおいて、タイムオフセットtdを状態パラメータとして使用し、IMU状態を対応する画像のタイムスタンプに整列させる。
我々のアプローチは、特にノイズの多いセンサデータの存在下で、より正確な時間オフセット推定とより高速な収束を提供する。
論文 参考訳(メタデータ) (2025-01-03T12:41:25Z) - MATE: Motion-Augmented Temporal Consistency for Event-based Point Tracking [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
事象の間隔に起因する曖昧さを解決するため、運動誘導モジュールは運動ベクトルを局所的なマッチングプロセスに組み込む。
このメソッドは、任意のポイントベースラインのイベントのみのトラッキングに対して、$Survival_50$メトリックを17.9%改善する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - Joint Spatial-Temporal Calibration for Camera and Global Pose Sensor [0.4143603294943439]
ロボット工学において、モーションキャプチャシステムはローカライズアルゴリズムの精度を測定するために広く利用されている。
これらの機能は、カメラとグローバルポーズセンサーの間で正確で信頼性の高い時空間キャリブレーションパラメータを必要とする。
本研究では,これらのキャリブレーションパラメータを推定する新しい2つの手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T20:56:14Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Pushing the Envelope of Rotation Averaging for Visual SLAM [69.7375052440794]
視覚SLAMシステムのための新しい最適化バックボーンを提案する。
従来の単分子SLAMシステムの精度, 効率, 堅牢性を向上させるために, 平均化を活用している。
我々のアプローチは、公開ベンチマークの最先端技術に対して、同等の精度で最大10倍高速に表示することができる。
論文 参考訳(メタデータ) (2020-11-02T18:02:26Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。