論文の概要: eWand: A calibration framework for wide baseline frame-based and
event-based camera systems
- arxiv url: http://arxiv.org/abs/2309.12685v1
- Date: Fri, 22 Sep 2023 07:51:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 15:32:38.189058
- Title: eWand: A calibration framework for wide baseline frame-based and
event-based camera systems
- Title(参考訳): eWand:ワイドベースラインフレームとイベントベースカメラシステムのための校正フレームワーク
- Authors: Thomas Gossard, Andreas Ziegler, Levin Kolmar, Jonas Tebbe and Andreas
Zell
- Abstract要約: 印刷または表示されたパターンの代わりに不透明な球体内でLEDを点滅させる新しい方法であるeWandを提案する。
本手法は,イベントベースカメラとフレームベースカメラの両方において,高精度なキャリブレーション手法を実現する。
- 参考スコア(独自算出の注目度): 12.590158763556186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate calibration is crucial for using multiple cameras to triangulate the
position of objects precisely. However, it is also a time-consuming process
that needs to be repeated for every displacement of the cameras. The standard
approach is to use a printed pattern with known geometry to estimate the
intrinsic and extrinsic parameters of the cameras. The same idea can be applied
to event-based cameras, though it requires extra work. By using frame
reconstruction from events, a printed pattern can be detected. A blinking
pattern can also be displayed on a screen. Then, the pattern can be directly
detected from the events. Such calibration methods can provide accurate
intrinsic calibration for both frame- and event-based cameras. However, using
2D patterns has several limitations for multi-camera extrinsic calibration,
with cameras possessing highly different points of view and a wide baseline.
The 2D pattern can only be detected from one direction and needs to be of
significant size to compensate for its distance to the camera. This makes the
extrinsic calibration time-consuming and cumbersome. To overcome these
limitations, we propose eWand, a new method that uses blinking LEDs inside
opaque spheres instead of a printed or displayed pattern. Our method provides a
faster, easier-to-use extrinsic calibration approach that maintains high
accuracy for both event- and frame-based cameras.
- Abstract(参考訳): 複数のカメラを使って物体の位置を正確に三角測量するには正確な校正が不可欠である。
しかし、カメラの変位毎に繰り返し必要となる、時間を要するプロセスでもある。
標準的なアプローチは、既知の幾何学を持つ印刷パターンを使用して、カメラの固有パラメータと外部パラメータを推定する。
同じアイデアはイベントベースのカメラにも適用可能だが、追加作業が必要になる。
イベントからのフレーム再構成を使用することで、印刷パターンを検出することができる。
点滅パターンを画面に表示することもできる。
そして、そのパターンをイベントから直接検出することができる。
このようなキャリブレーション手法は、フレームベースのカメラとイベントベースのカメラの両方に正確な固有キャリブレーションを提供することができる。
しかし、2Dパターンの使用には、カメラが高度に異なる視点と広いベースラインを持ちながら、マルチカメラの外部キャリブレーションにいくつかの制限がある。
2Dパターンは1つの方向からしか検出できず、カメラまでの距離を補うためにかなりの大きさが必要である。
これにより、外因性キャリブレーションの時間と手間がかかる。
このような制約を克服するために,印刷や表示のパターンの代わりに不透明な球体内でLEDを点滅させる新しい方法であるeWandを提案する。
本手法は,イベントベースカメラとフレームベースカメラの両方において,高精度なキャリブレーション手法を提案する。
関連論文リスト
- Neural Real-Time Recalibration for Infrared Multi-Camera Systems [2.249916681499244]
赤外線マルチカメラシステムのリアルタイム再校正には、学習のない、あるいはニューラルネットワーク技術は存在しない。
動的リアルタイムキャリブレーションが可能なニューラルネットワークに基づく手法を提案する。
論文 参考訳(メタデータ) (2024-10-18T14:37:37Z) - Deep Learning for Camera Calibration and Beyond: A Survey [100.75060862015945]
カメラキャリブレーションでは、キャプチャされたシーケンスから幾何学的特徴を推測するために、カメラパラメータを推定する。
近年の取り組みでは,手動キャリブレーションの繰り返し作業に代えて,学習ベースのソリューションが活用される可能性が示唆されている。
論文 参考訳(メタデータ) (2023-03-19T04:00:05Z) - Online Marker-free Extrinsic Camera Calibration using Person Keypoint
Detections [25.393382192511716]
本稿では,複数のスマートエッジセンサの外部校正のためのマーカーレスオンライン手法を提案する。
本手法では,固有カメラパラメータを推定し,カメラのポーズの粗い初期推定値でプライマーを推定する。
本手法による校正は,オフライン手法による基準校正よりも低い再投影誤差が得られることを示す。
論文 参考訳(メタデータ) (2022-09-15T15:54:21Z) - Self-Calibrating Neural Radiance Fields [68.64327335620708]
キャリブレーション対象のないシーンの幾何学と正確なカメラパラメータを共同で学習する。
我々のカメラモデルは、ピンホールモデル、第4次ラジアル歪み、および任意の非線形カメラ歪みを学習可能な汎用ノイズモデルで構成されている。
論文 参考訳(メタデータ) (2021-08-31T13:34:28Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - Dynamic Event Camera Calibration [27.852239869987947]
最初の動的イベントカメラキャリブレーションアルゴリズムを提案する。
カメラとキャリブレーションパターンの間の相対的な動きで捉えたイベントから直接キャリブレーションする。
その結果, 得られたキャリブレーション法は, 10秒未満のデータ列から, 極めて有用かつ確実なキャリブレーションを行うことができた。
論文 参考訳(メタデータ) (2021-07-14T14:52:58Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - Multi-camera calibration with pattern rigs, including for non-overlapping cameras: CALICO [1.8874301050354767]
本稿では,挑戦的コンテキストに適したマルチカメラキャリブレーション手法であるCALICOについて述べる。
CalICOはパターンに基づくアプローチであり、パターンとカメラ間の剛性制約を用いて多重校正問題を定式化する。
論文 参考訳(メタデータ) (2019-03-15T21:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。