論文の概要: E-Calib: A Fast, Robust and Accurate Calibration Toolbox for Event Cameras
- arxiv url: http://arxiv.org/abs/2306.09078v2
- Date: Fri, 22 Nov 2024 19:47:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:15:49.517682
- Title: E-Calib: A Fast, Robust and Accurate Calibration Toolbox for Event Cameras
- Title(参考訳): E-Calib: イベントカメラ用の高速でロバストで正確なキャリブレーションツールボックス
- Authors: Mohammed Salah, Abdulla Ayyad, Muhammad Humais, Daniel Gehrig, Abdelqader Abusafieh, Lakmal Seneviratne, Davide Scaramuzza, Yahya Zweiri,
- Abstract要約: E-Calibは、イベントカメラの新しい、高速で、堅牢で、正確なキャリブレーションツールボックスである。
提案手法は,様々なイベントカメラモデルに対する様々な厳密な実験で検証される。
- 参考スコア(独自算出の注目度): 18.54225086007182
- License:
- Abstract: Event cameras triggered a paradigm shift in the computer vision community delineated by their asynchronous nature, low latency, and high dynamic range. Calibration of event cameras is always essential to account for the sensor intrinsic parameters and for 3D perception. However, conventional image-based calibration techniques are not applicable due to the asynchronous, binary output of the sensor. The current standard for calibrating event cameras relies on either blinking patterns or event-based image reconstruction algorithms. These approaches are difficult to deploy in factory settings and are affected by noise and artifacts degrading the calibration performance. To bridge these limitations, we present E-Calib, a novel, fast, robust, and accurate calibration toolbox for event cameras utilizing the asymmetric circle grid, for its robustness to out-of-focus scenes. The proposed method is tested in a variety of rigorous experiments for different event camera models, on circle grids with different geometric properties, and under challenging illumination conditions. The results show that our approach outperforms the state-of-the-art in detection success rate, reprojection error, and estimation accuracy of extrinsic parameters.
- Abstract(参考訳): イベントカメラは、その非同期性、低レイテンシ、高ダイナミックレンジによって、コンピュータビジョンコミュニティのパラダイムシフトを引き起こした。
イベントカメラの校正は、センサ固有のパラメータと3D知覚のために必要不可欠である。
しかし、従来の画像ベースの校正技術は、センサの非同期バイナリ出力のため適用できない。
イベントカメラのキャリブレーションの現在の標準は、点滅パターンまたはイベントベースの画像再構成アルゴリズムに依存している。
これらのアプローチは工場環境での展開が困難であり、キャリブレーション性能を低下させるノイズやアーティファクトの影響を受けている。
これらの制約を補うために,非対称な円格子を用いたイベントカメラのための,新しい,高速で,堅牢で,正確なキャリブレーションツールボックスであるE-Calibを紹介した。
提案手法は,様々なイベントカメラモデルの厳密な実験,幾何学的特性の異なる円格子,難解な照明条件下で試験される。
その結果,本手法は,検出成功率,再投射誤差,外因性パラメータの推定精度において,最先端の手法よりも優れていた。
関連論文リスト
- EF-Calib: Spatiotemporal Calibration of Event- and Frame-Based Cameras Using Continuous-Time Trajectories [10.338905475270746]
イベントカメラはフレームベースのカメラと融合する見込みがある。
本稿では,固有カメラとフレームベースカメラを併用したステレオビジョンシステムの校正フレームワークEF-Calibを提案する。
論文 参考訳(メタデータ) (2024-05-27T15:40:24Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Deep Learning for Camera Calibration and Beyond: A Survey [100.75060862015945]
カメラキャリブレーションでは、キャプチャされたシーケンスから幾何学的特徴を推測するために、カメラパラメータを推定する。
近年の取り組みでは,手動キャリブレーションの繰り返し作業に代えて,学習ベースのソリューションが活用される可能性が示唆されている。
論文 参考訳(メタデータ) (2023-03-19T04:00:05Z) - A Deep Perceptual Measure for Lens and Camera Calibration [35.03926427249506]
従来のマルチイメージキャリブレーション法の代わりに,単一画像から直接カメラキャリブレーションパラメータを推定することを提案する。
大規模なパノラマデータセットから自動的に生成されたサンプルを用いて、このネットワークをトレーニングする。
そこで我々は, カメラキャリブレーションパラメータを補正した3次元物体のリアリズムの判断を参加者に依頼した。
論文 参考訳(メタデータ) (2022-08-25T18:40:45Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Dynamic Event Camera Calibration [27.852239869987947]
最初の動的イベントカメラキャリブレーションアルゴリズムを提案する。
カメラとキャリブレーションパターンの間の相対的な動きで捉えたイベントから直接キャリブレーションする。
その結果, 得られたキャリブレーション法は, 10秒未満のデータ列から, 極めて有用かつ確実なキャリブレーションを行うことができた。
論文 参考訳(メタデータ) (2021-07-14T14:52:58Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Superaccurate Camera Calibration via Inverse Rendering [0.19336815376402716]
逆レンダリングの原理を用いたカメラキャリブレーションの新しい手法を提案する。
検出された特徴点のみに頼らず、内部パラメータの推定と校正対象のポーズを用いて光学的特徴の非フォトリアリスティックな等価性を暗黙的に描画する。
論文 参考訳(メタデータ) (2020-03-20T10:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。