論文の概要: Two-Stage Camera Calibration Method for Multi-Camera Systems Using Scene Geometry
- arxiv url: http://arxiv.org/abs/2512.05171v1
- Date: Thu, 04 Dec 2025 16:47:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.138787
- Title: Two-Stage Camera Calibration Method for Multi-Camera Systems Using Scene Geometry
- Title(参考訳): シーン幾何学を用いたマルチカメラシステムの2段階カメラ校正法
- Authors: Aleksandr Abramov,
- Abstract要約: 本稿では,マルチカメラトラッキングシステムのための2段階キャリブレーション手法を提案する。
第1段階では、自然幾何学的プリミティブの演算子のアノテーションに基づいて、個々のカメラの部分校正を行う。
第2段階では、投影された有効視野のインタラクティブな操作により、正確なシステム校正を行う。
- 参考スコア(独自算出の注目度): 52.27010615715154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Calibration of multi-camera systems is a key task for accurate object tracking. However, it remains a challenging problem in real-world conditions, where traditional methods are not applicable due to the lack of accurate floor plans, physical access to place calibration patterns, or synchronized video streams. This paper presents a novel two-stage calibration method that overcomes these limitations. In the first stage, partial calibration of individual cameras is performed based on an operator's annotation of natural geometric primitives (parallel, perpendicular, and vertical lines, or line segments of equal length). This allows estimating key parameters (roll, pitch, focal length) and projecting the camera's Effective Field of View (EFOV) onto the horizontal plane in a base 3D coordinate system. In the second stage, precise system calibration is achieved through interactive manipulation of the projected EFOV polygons. The operator adjusts their position, scale, and rotation to align them with the floor plan or, in its absence, using virtual calibration elements projected onto all cameras in the system. This determines the remaining extrinsic parameters (camera position and yaw). Calibration requires only a static image from each camera, eliminating the need for physical access or synchronized video. The method is implemented as a practical web service. Comparative analysis and demonstration videos confirm the method's applicability, accuracy, and flexibility, enabling the deployment of precise multi-camera tracking systems in scenarios previously considered infeasible.
- Abstract(参考訳): マルチカメラシステムの校正は、正確な物体追跡の鍵となる課題である。
しかし、正確なフロアプランの欠如、位置キャリブレーションパターンへの物理的アクセス、同期されたビデオストリームのため、従来の手法が適用できない現実の状況では難しい問題である。
本稿では,これらの制約を克服する2段階キャリブレーション手法を提案する。
第1段階では、自然幾何学的プリミティブ(平行線、垂直線、または同じ長さの線分)のオペレータのアノテーションに基づいて、個々のカメラの部分校正を行う。
これにより、キーパラメータ(回転、ピッチ、焦点距離)を推定し、カメラのエフェクトフィールド・オブ・ビュー(EFOV)をベース3D座標系内の水平面に投影することができる。
第2段階では、投影されたEFOVポリゴンのインタラクティブな操作により、正確なシステムキャリブレーションが達成される。
オペレータは、位置、スケール、回転を調整し、フロアプランと整列させるか、システム内のすべてのカメラに投影される仮想キャリブレーション要素を使用する。
これにより、残りの外因性パラメータ(カメラの位置とヨー)が決定される。
キャリブレーションは各カメラからの静止画像のみを必要とするため、物理的アクセスや同期ビデオは不要である。
この方法は実用的なWebサービスとして実装されている。
比較分析とデモビデオは、この手法の適用性、正確性、柔軟性を確認し、従来は不可能と考えられていたシナリオに、正確なマルチカメラトラッキングシステムのデプロイを可能にする。
関連論文リスト
- Visual Odometry with Transformers [68.453547770334]
特徴抽出により単眼フレームのシーケンスを処理するビジュアル・オドメトリ・トランスフォーマ(VoT)を導入する。
従来の方法とは異なり、VoTは密度の高い幾何学を推定することなくカメラの動きを直接予測し、監視のためにカメラのポーズのみに依存する。
VoTは、より大きなデータセットで効果的にスケールし、より強力なトレーニング済みバックボーンの恩恵を受け、多様なカメラモーションとキャリブレーション設定を一般化し、従来のメソッドよりも3倍以上高速に動作しながらパフォーマンスを向上する。
論文 参考訳(メタデータ) (2025-10-02T17:00:14Z) - Dynamic View Synthesis from Small Camera Motion Videos [56.359460602781304]
分布に基づく奥行き正規化に基づく動的3ドルDシーンのための新しいビュー合成を提案する。
また、光線に沿った物体境界がほぼゼロとなる前に空間点の体積密度を強制する制約を導入し、我々のモデルがシーンの正確な幾何学を学べるようにした。
我々は,小さなカメラモーション入力によるシーン表現におけるアプローチの有効性を実証するために,広範囲な実験を行い,その結果を最先端の手法と比較した。
論文 参考訳(メタデータ) (2025-06-29T09:17:55Z) - Single-Scanline Relative Pose Estimation for Rolling Shutter Cameras [56.39904484784127]
本稿では,ラインプロジェクションの交差点と1枚の走査線を用いて,ローリングシャッターカメラ間の相対的なポーズを推定する手法を提案する。
あるいは、単一の画像内でスキャニングラインを選択することができ、ローリングシャッターカメラのスキャニングラインに対するシングルビュー相対ポーズ推定を可能にする。
論文 参考訳(メタデータ) (2025-06-27T10:00:21Z) - PTZ-Calib: Robust Pan-Tilt-Zoom Camera Calibration [32.4466455429431]
本稿では,ロバストな2段カメラキャリブレーション手法を提案する。
オフラインの段階では、まず、完全な360度ビューを包含するのに十分な重なり合う参照画像の集合を均一に選択する。
オンライン段階では、再ローカライズ問題として、新しい視点の校正を実証する。
論文 参考訳(メタデータ) (2025-02-13T08:45:43Z) - Neural Real-Time Recalibration for Infrared Multi-Camera Systems [2.249916681499244]
赤外線マルチカメラシステムのリアルタイム再校正には、学習のない、あるいはニューラルネットワーク技術は存在しない。
動的リアルタイムキャリブレーションが可能なニューラルネットワークに基づく手法を提案する。
論文 参考訳(メタデータ) (2024-10-18T14:37:37Z) - Camera Calibration using a Collimator System [5.138012450471437]
本稿では,コリメータシステムを用いたカメラキャリブレーション手法を提案する。
コリメータシステムの光学的幾何に基づいて、目標とカメラの間の相対運動が球運動モデルに一致することを証明した。
カメラキャリブレーションにおいて,複数ビューの閉形式解法と2ビューの最小解法を提案する。
論文 参考訳(メタデータ) (2024-09-30T07:40:41Z) - LiFCal: Online Light Field Camera Calibration via Bundle Adjustment [38.2887165481751]
LiFCalは、MLAベースの光フィールドカメラのためのオンラインキャリブレーションパイプラインである。
正確な校正対象のない移動カメラシーケンスからモデルパラメータを正確に決定する。
ターゲットのないシーンに適用可能で、完全な継続的パイプラインでオンラインに実装されている。
論文 参考訳(メタデータ) (2024-08-21T15:04:49Z) - Online Marker-free Extrinsic Camera Calibration using Person Keypoint
Detections [25.393382192511716]
本稿では,複数のスマートエッジセンサの外部校正のためのマーカーレスオンライン手法を提案する。
本手法では,固有カメラパラメータを推定し,カメラのポーズの粗い初期推定値でプライマーを推定する。
本手法による校正は,オフライン手法による基準校正よりも低い再投影誤差が得られることを示す。
論文 参考訳(メタデータ) (2022-09-15T15:54:21Z) - Calibrated and Partially Calibrated Semi-Generalized Homographies [65.29477277713205]
視点と一般化カメラから半一般化ホモグラフィーを推定するための最初の最小解を提案する。
提案した解法は、多くの合成および実世界の実験で実証されたように安定かつ効率的である。
論文 参考訳(メタデータ) (2021-03-11T08:56:24Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。