論文の概要: Unleashing the Power of Discrete-Time State Representation: Ultrafast Target-based IMU-Camera Spatial-Temporal Calibration
- arxiv url: http://arxiv.org/abs/2509.12846v1
- Date: Tue, 16 Sep 2025 09:05:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.986325
- Title: Unleashing the Power of Discrete-Time State Representation: Ultrafast Target-based IMU-Camera Spatial-Temporal Calibration
- Title(参考訳): 離散時間状態表現のパワーを解き放つ:超高速ターゲットベースIMUカメラ空間時間校正
- Authors: Junlin Song, Antoine Richard, Miguel Olivares-Mendez,
- Abstract要約: 本稿では,離散時間状態表現のパワーを解放する,新しい極めて効率的なキャリブレーション手法を提案する。
ドローン、携帯電話、その他のビジュアル慣性プラットフォームの生産が増加する中、100万台のデバイスが世界中のキャリブレーションを必要とする場合、各デバイスをキャリブレーションするのに1分節約することは、合計2083労働日を節約することを意味する。
- 参考スコア(独自算出の注目度): 2.2885522469802577
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual-inertial fusion is crucial for a large amount of intelligent and autonomous applications, such as robot navigation and augmented reality. To bootstrap and achieve optimal state estimation, the spatial-temporal displacements between IMU and cameras must be calibrated in advance. Most existing calibration methods adopt continuous-time state representation, more specifically the B-spline. Despite these methods achieve precise spatial-temporal calibration, they suffer from high computational cost caused by continuous-time state representation. To this end, we propose a novel and extremely efficient calibration method that unleashes the power of discrete-time state representation. Moreover, the weakness of discrete-time state representation in temporal calibration is tackled in this paper. With the increasing production of drones, cellphones and other visual-inertial platforms, if one million devices need calibration around the world, saving one minute for the calibration of each device means saving 2083 work days in total. To benefit both the research and industry communities, our code will be open-source.
- Abstract(参考訳): 視覚慣性融合は、ロボットナビゲーションや拡張現実など、多数のインテリジェントで自律的なアプリケーションにとって不可欠である。
ブートストラップと最適状態推定を実現するためには、IMUとカメラの間の時空間変位を事前に調整する必要がある。
既存のキャリブレーション法の多くは、連続時間状態表現、具体的にはB-スプラインを採用している。
これらの手法は正確な時空間キャリブレーションを実現するが、連続時間状態表現による計算コストが高い。
そこで本研究では,離散時間状態表現のパワーを解放する,新しい極めて効率的なキャリブレーション手法を提案する。
さらに, 時間的キャリブレーションにおける離散時間状態表現の弱点に対処する。
ドローン、携帯電話、その他のビジュアル慣性プラットフォームの生産が増加する中、100万台のデバイスが世界中のキャリブレーションを必要とする場合、各デバイスをキャリブレーションするのに1分節約することは、合計2083労働日を節約することを意味する。
リサーチコミュニティと業界コミュニティの両方に利益をもたらすため、私たちのコードはオープンソースになります。
関連論文リスト
- eKalibr-Inertial: Continuous-Time Spatiotemporal Calibration for Event-Based Visual-Inertial Systems [7.192326181604602]
エゴモーション推定では、センサー間の相補的な特性のため、視覚慣性設定が一般的である。
eKalibr-Inertialは、イベントベースの視覚慣性システムのための正確な時間的キャリブレータである。
論文 参考訳(メタデータ) (2025-09-07T04:44:56Z) - Transformer IMU Calibrator: Dynamic On-body IMU Calibration for Inertial Motion Capture [25.103306425456005]
スパース慣性モーションキャプチャシステムのための新しい動的キャリブレーション法を提案する。
我々はRG'GとRBSを2つの緩和された仮定でリアルタイムに推定する。
我々の知る限りでは、私たちは初めて暗黙のIMU校正を達成した。
論文 参考訳(メタデータ) (2025-06-12T11:18:40Z) - Universal Online Temporal Calibration for Optimization-based Visual-Inertial Navigation Systems [13.416013522770905]
最適化に基づくビジュアル慣性ナビゲーションシステムのための汎用的なオンライン時間的キャリブレーション戦略を提案する。
我々は、最適化残差モデルにおいて、タイムオフセットtdを状態パラメータとして使用し、IMU状態を対応する画像のタイムスタンプに整列させる。
我々のアプローチは、特にノイズの多いセンサデータの存在下で、より正確な時間オフセット推定とより高速な収束を提供する。
論文 参考訳(メタデータ) (2025-01-03T12:41:25Z) - Temporal Feature Matters: A Framework for Diffusion Model Quantization [105.3033493564844]
拡散モデルはマルチラウンド・デノナイジングの時間ステップに依存している。
3つの戦略を含む新しい量子化フレームワークを導入する。
このフレームワークは時間情報のほとんどを保存し、高品質なエンドツーエンド生成を保証する。
論文 参考訳(メタデータ) (2024-07-28T17:46:15Z) - Multi-Visual-Inertial System: Analysis, Calibration and Estimation [26.658649118048032]
マルチビジュアル・慣性システム(MVIS)の状態を推定し,センサ融合アルゴリズムを開発した。
我々は、関連する視覚慣性センサーの完全な校正に興味を持っている。
論文 参考訳(メタデータ) (2023-08-10T02:47:36Z) - Automated Static Camera Calibration with Intelligent Vehicles [58.908194559319405]
自動ジオレファレンスカメラキャリブレーションのためのロバストキャリブレーション法を提案する。
本手法では, フィルタ/RTK受信機と慣性測定ユニット(IMU)を組み合わせたキャリブレーション車両が必要である。
我々の手法は、インフラと車両の両方で記録された情報と人間との相互作用を一切必要としない。
論文 参考訳(メタデータ) (2023-04-21T08:50:52Z) - MOISST: Multimodal Optimization of Implicit Scene for SpatioTemporal
calibration [4.405687114738899]
コンピュータグラフィックスと暗黙のボリュームシーン表現の最近の進歩を利用して、マルチセンサ空間と時間的キャリブレーションの問題に取り組む。
本手法は,非制御・非構造都市環境におけるデータからの高精度でロバストなキャリブレーションを可能にする。
本研究では,都市部における自律走行シナリオにおける手法の精度とロバスト性を実証する。
論文 参考訳(メタデータ) (2023-03-06T11:59:13Z) - PRISM: Probabilistic Real-Time Inference in Spatial World Models [52.878769723544615]
PRISMはエージェントの動きと視覚知覚の確率的生成モデルにおけるリアルタイムフィルタリングの手法である。
提案手法は10Hzでリアルタイムに動作し,小型・中型屋内環境における最先端SLAMと同等に精度が高い。
論文 参考訳(メタデータ) (2022-12-06T13:59:06Z) - Quantum state tomography with tensor train cross approximation [84.59270977313619]
測定条件が最小限であるような状態に対して、完全な量子状態トモグラフィが実行可能であることを示す。
本手法は,非構造状態と局所測定のための最もよく知られたトモグラフィー法よりも指数関数的に少ない状態コピーを必要とする。
論文 参考訳(メタデータ) (2022-07-13T17:56:28Z) - Scalable Vehicle Re-Identification via Self-Supervision [66.2562538902156]
自動車再同定は、都市規模の車両分析システムにおいて重要な要素の1つである。
車両再設計のための最先端のソリューションの多くは、既存のre-idベンチマークの精度向上に重点を置いており、計算の複雑さを無視することが多い。
推論時間に1つのネットワークのみを使用する自己教師型学習によって、シンプルで効果的なハイブリッドソリューションを提案する。
論文 参考訳(メタデータ) (2022-05-16T12:14:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。