論文の概要: Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras
- arxiv url: http://arxiv.org/abs/2207.01009v1
- Date: Sun, 3 Jul 2022 11:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 10:26:20.688561
- Title: Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras
- Title(参考訳): レーザーからイベントへ:ライダーとイベントカメラの自動外装校正
- Authors: Kevin Ta, David Bruggemann, Tim Br\"odermann, Christos Sakaridis, Luc
Van Gool
- Abstract要約: 本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
- 参考スコア(独自算出の注目度): 67.84498757689776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite significant academic and corporate efforts, autonomous driving under
adverse visual conditions still proves challenging. As neuromorphic technology
has matured, its application to robotics and autonomous vehicle systems has
become an area of active research. Low-light and latency-demanding situations
can benefit. To enable event cameras to operate alongside staple sensors like
lidar in perception tasks, we propose a direct, temporally-decoupled
calibration method between event cameras and lidars. The high dynamic range and
low-light operation of event cameras are exploited to directly register lidar
laser returns, allowing information-based correlation methods to optimize for
the 6-DoF extrinsic calibration between the two sensors. This paper presents
the first direct calibration method between event cameras and lidars, removing
dependencies on frame-based camera intermediaries and/or highly-accurate hand
measurements. Code will be made publicly available.
- Abstract(参考訳): 学術的・企業的な努力にもかかわらず、悪い視覚条件下での自律運転は依然として困難である。
ニューロモルフィック技術が成熟するにつれて、ロボット工学や自動運転車システムへの応用が活発な研究領域となっている。
低照度かつ遅延要求の状況にはメリットがある。
イベントカメラがライダーなどのセンサと連動して動作できるようにするために,イベントカメラとライダーの直接的な時間分解キャリブレーション手法を提案する。
イベントカメラの高ダイナミックレンジと低照度操作は、lidarレーザーのリターンを直接登録するために利用され、情報に基づく相関手法が2つのセンサー間の6自由度キャリブレーションに最適化される。
本稿では,イベントカメラとライダーの直接キャリブレーションを行う最初の方法を提案する。
コードは公開される予定だ。
関連論文リスト
- Microsaccade-inspired Event Camera for Robotics [42.27082276343167]
低反応時間と安定したテクスチャを同時に維持できるイベントベース認識システムの設計を行う。
回転するくさびプリズムの幾何学的光学は、追加の回転運動のアルゴリズムによる補償を可能にする。
様々な実世界の実験では、ロボット工学が低レベルと高レベルの両方の視覚タスクに対して知覚を促進する可能性を実証している。
論文 参考訳(メタデータ) (2024-05-28T02:49:46Z) - E-Calib: A Fast, Robust and Accurate Calibration Toolbox for Event Cameras [18.54225086007182]
E-Calibは、イベントカメラの新しい、高速で、堅牢で、正確なキャリブレーションツールボックスである。
提案手法は,様々なイベントカメラモデルに対する様々な厳密な実験で検証される。
論文 参考訳(メタデータ) (2023-06-15T12:16:38Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - LCE-Calib: Automatic LiDAR-Frame/Event Camera Extrinsic Calibration With
A Globally Optimal Solution [10.117923901732743]
LiDARとカメラの組み合わせにより、移動ロボットはマルチモーダルデータで環境を知覚することができる。
従来のフレームカメラは照明条件の変更に敏感で、新しいイベントカメラの導入を動機付けています。
本稿では,LiDARとフレーム/イベントカメラの外部特性をキャリブレーションするためのチェッカーボードによる自動手法を提案する。
論文 参考訳(メタデータ) (2023-03-17T08:07:56Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - LIF-Seg: LiDAR and Camera Image Fusion for 3D LiDAR Semantic
Segmentation [78.74202673902303]
本稿では,LiDAR分割のための粗大なLiDARとカメラフュージョンベースネットワーク(LIF-Seg)を提案する。
提案手法は,画像の文脈情報を完全に活用し,単純だが効果的な早期融合戦略を導入する。
これら2つのコンポーネントの協力により、効果的なカメラ-LiDAR融合が成功する。
論文 参考訳(メタデータ) (2021-08-17T08:53:11Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。