論文の概要: Camera calibration for the surround-view system: a benchmark and dataset
- arxiv url: http://arxiv.org/abs/2312.16499v1
- Date: Wed, 27 Dec 2023 10:12:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 19:18:21.079068
- Title: Camera calibration for the surround-view system: a benchmark and dataset
- Title(参考訳): サラウンドビューシステムのためのカメラキャリブレーション:ベンチマークとデータセット
- Authors: L Qin, C Lin, S Huang, S Yang and Y Zhao
- Abstract要約: 本研究では,外因性パラメータを頑健に推定する特定のキャリブレーションパイプラインを提案する。
提案したパイプラインは、実走行環境における4つのSVSカメラ外在パラメータを頑健に推定することができる。
実際の交通シナリオから取得した40の動画と32,000のフレームを含むサラウンドビューの魚眼データセットを構築します。
- 参考スコア(独自算出の注目度): 2.1092968889055412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surround-view system (SVS) is widely used in the Advanced Driver Assistance
System (ADAS). SVS uses four fisheye lenses to monitor real-time scenes around
the vehicle. However, accurate intrinsic and extrinsic parameter estimation is
required for the proper functioning of the system. At present, the intrinsic
calibration can be pipeline by utilizing checkerboard algorithm, while
extrinsic calibration is still immature. Therefore, we proposed a specific
calibration pipeline to estimate extrinsic parameters robustly. This scheme
takes a driving sequence of four cameras as input. It firstly utilizes lane
line to roughly estimate each camera pose. Considering the environmental
condition differences in each camera, we separately select strategies from two
methods to accurately estimate the extrinsic parameters. To achieve accurate
estimates for both front and rear camera, we proposed a method that mutually
iterating line detection and pose estimation. As for bilateral camera, we
iteratively adjust the camera pose and position by minimizing texture and edge
error between ground projections of adjacent cameras. After estimating the
extrinsic parameters, the surround-view image can be synthesized by
homography-based transformation. The proposed pipeline can robustly estimate
the four SVS camera extrinsic parameters in real driving environments. In
addition, to evaluate the proposed scheme, we build a surround-view fisheye
dataset, which contains 40 videos with 32,000 frames, acquired from different
real traffic scenarios. All the frames in each video are manually labeled with
lane annotation, with its GT extrinsic parameters. Moreover, this surround-view
dataset could be used by other researchers to evaluate their performance. The
dataset will be available soon.
- Abstract(参考訳): Surround-view System (SVS) はAdvanced Driver Assistance System (ADAS) で広く使われている。
SVSは4つの魚眼レンズを使って車周りのリアルタイムシーンをモニタする。
しかし、システムの適切な機能には、正確な内在的および外在的パラメータ推定が必要である。
現在、内在キャリブレーションはチェッカーボードアルゴリズムを用いてパイプライン化でき、外在キャリブレーションは未熟である。
そこで本研究では,外因性パラメータを頑健に推定する特定のキャリブレーションパイプラインを提案する。
この方式は4台のカメラの駆動シーケンスを入力とする。
まず車線を利用して各カメラのポーズを概算する。
それぞれのカメラの環境条件の違いを考慮して,2つの手法から戦略を分離し,そのパラメータを正確に推定する。
前方カメラと後方カメラの両方の正確な推定を実現するために,ライン検出とポーズ推定を相互に反復する手法を提案する。
バイラテラルカメラについては,隣り合うカメラの接地プロジェクション間のテクスチャとエッジ誤差を最小にすることで,カメラのポーズと位置を反復的に調整する。
外部パラメータを推定した後、サラウンドビュー画像はホモグラフィに基づく変換によって合成できる。
提案するパイプラインは,実走行環境での4つのsvsカメラの外部パラメータをロバストに推定できる。
さらに,提案手法を評価するために,異なる実交通シナリオから取得した40本のビデオを含むサラウンドビュー魚眼データセットを構築した。
各ビデオ内のすべてのフレームは、そのGT外部パラメータでレーンアノテーションで手動でラベル付けされる。
さらに、このサラウンドビューデータセットは、他の研究者がパフォーマンスを評価するために使用できる。
データセットは近く提供される。
関連論文リスト
- SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Enhanced Stable View Synthesis [86.69338893753886]
本稿では,自由に動くカメラから撮影した画像から,新しいビュー合成を強化するアプローチを提案する。
導入されたアプローチは、正確な幾何学的足場とカメラのポーズの復元が困難な屋外シーンに焦点を当てている。
論文 参考訳(メタデータ) (2023-03-30T01:53:14Z) - Multi-task Learning for Camera Calibration [3.274290296343038]
一対の画像から内在性(主点オフセットと焦点長)と外因性(ベースライン,ピッチ,翻訳)を予測できるユニークな手法を提案する。
カメラモデルニューラルネットワークを用いて3Dポイントを再構成し、再構成の損失を利用してカメラ仕様を得ることにより、この革新的なカメラ投影損失(CPL)法により、所望のパラメータを推定できる。
論文 参考訳(メタデータ) (2022-11-22T17:39:31Z) - Self-Supervised Camera Self-Calibration from Video [34.35533943247917]
汎用カメラモデルの効率的なファミリーを用いてシーケンスごとのキャリブレーションパラメータを回帰する学習アルゴリズムを提案する。
提案手法は,サブピクセル再投射誤差による自己校正を行い,他の学習手法よりも優れる。
論文 参考訳(メタデータ) (2021-12-06T19:42:05Z) - Camera Calibration through Camera Projection Loss [4.36572039512405]
画像対を用いた固有(焦点長と主点オフセット)パラメータの予測手法を提案する。
従来の手法とは違って,マルチタスク学習フレームワークにおいて,カメラモデル方程式をニューラルネットワークとして組み込んだ新しい表現を提案する。
提案手法は,10パラメータ中7パラメータに対して,ディープラーニングと従来手法の両方に対して,優れた性能を実現する。
論文 参考訳(メタデータ) (2021-10-07T14:03:10Z) - Calibrated and Partially Calibrated Semi-Generalized Homographies [65.29477277713205]
視点と一般化カメラから半一般化ホモグラフィーを推定するための最初の最小解を提案する。
提案した解法は、多くの合成および実世界の実験で実証されたように安定かつ効率的である。
論文 参考訳(メタデータ) (2021-03-11T08:56:24Z) - Robust 2D/3D Vehicle Parsing in CVIS [54.825777404511605]
本研究では,協調型車両インフラシステム(CVIS)の一環として,異なるカメラビューの車両を堅牢に検出・認識する新しいアプローチを提案する。
提案方式は任意のカメラビュー向けに設計されており,本質的パラメータや外部的パラメータを仮定しない。
実際に,本手法は2次元検出,インスタンスセグメンテーション,6-DoFのポーズ推定においてSOTA法より優れている。
論文 参考訳(メタデータ) (2021-03-11T03:35:05Z) - Online Extrinsic Camera Calibration for Temporally Consistent IPM Using
Lane Boundary Observations with a Lane Width Prior [3.1788482285024102]
本研究では,道路面からのピッチ,ヨー,ロール角,カメラ高さを逐次駆動シーン画像から推定するオンライン外部カメラキャリブレーション手法を提案する。
合成および実世界のデータセットにおける提案手法の優位性を示す。
論文 参考訳(メタデータ) (2020-08-09T13:11:17Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。