論文の概要: Toward Planet-Wide Traffic Camera Calibration
- arxiv url: http://arxiv.org/abs/2311.04243v1
- Date: Mon, 6 Nov 2023 23:01:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 18:22:17.843841
- Title: Toward Planet-Wide Traffic Camera Calibration
- Title(参考訳): プラネタリー交通カメラの校正に向けて
- Authors: Khiem Vuong, Robert Tamburo, Srinivasa G. Narasimhan
- Abstract要約: 本稿では,道路レベルの画像を用いて距離3Dモデルを再構成し,Wild トラフィックカメラの正確な校正を容易にするフレームワークを提案する。
特に,本フレームワークは,100台以上のグローバル交通カメラの3次元シーン再構成と正確な位置推定を実現する。
評価のために,20台のフルキャリブレーションされたトラヒックカメラのデータセットを導入し,既存の自動キャリブレーション技術に対する提案手法の大幅な拡張を実証した。
- 参考スコア(独自算出の注目度): 20.69039245275091
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the widespread deployment of outdoor cameras, their potential for
automated analysis remains largely untapped due, in part, to calibration
challenges. The absence of precise camera calibration data, including intrinsic
and extrinsic parameters, hinders accurate real-world distance measurements
from captured videos. To address this, we present a scalable framework that
utilizes street-level imagery to reconstruct a metric 3D model, facilitating
precise calibration of in-the-wild traffic cameras. Notably, our framework
achieves 3D scene reconstruction and accurate localization of over 100 global
traffic cameras and is scalable to any camera with sufficient street-level
imagery. For evaluation, we introduce a dataset of 20 fully calibrated traffic
cameras, demonstrating our method's significant enhancements over existing
automatic calibration techniques. Furthermore, we highlight our approach's
utility in traffic analysis by extracting insights via 3D vehicle
reconstruction and speed measurement, thereby opening up the potential of using
outdoor cameras for automated analysis.
- Abstract(参考訳): 屋外カメラの普及にもかかわらず、自動分析の可能性は、部分的にはキャリブレーションの問題のために、ほとんど未解決のままである。
内在パラメータや外在パラメータを含む正確なカメラキャリブレーションデータがないことは、キャプチャーされたビデオからの正確な現実世界距離測定を妨げる。
そこで,本稿では,道路レベルの画像を用いて3次元モデルを構築し,車内交通カメラの正確なキャリブレーションを容易にするスケーラブルな枠組みを提案する。
特に,100以上のグローバルトラヒックカメラの3dシーン再構成と正確な位置決めを実現し,十分なストリートレベル画像を持つ任意のカメラにスケーラブルである。
評価のために,本手法が既存の自動キャリブレーション技術よりも大幅に向上していることを示す20台の完全キャリブレーショントラヒックカメラのデータセットを紹介する。
さらに,3次元車両再構成と速度測定による洞察を抽出することにより,交通分析における我々のアプローチの有用性を強調し,自動分析に屋外カメラを用いる可能性を広げる。
関連論文リスト
- Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - Homography Estimation in Complex Topological Scenes [6.023710971800605]
監視ビデオや画像は、交通分析から犯罪検出まで、幅広い用途に使用されている。
外部カメラキャリブレーションデータは、ほとんどの分析アプリケーションにとって重要である。
本稿では,任意のカメラ設定に関する事前知識を必要としない辞書ベースのアプローチを活用した自動カメラ校正プロセスを提案する。
論文 参考訳(メタデータ) (2023-08-02T11:31:43Z) - Automated Automotive Radar Calibration With Intelligent Vehicles [73.15674960230625]
本稿では,自動車用レーダセンサの自動校正手法を提案する。
本手法では, 車両の外部改造を必要とせず, 自動走行車から得られる位置情報を利用する。
実地試験場からのデータを評価した結果,インフラセンサを自動で正確に校正できることが判明した。
論文 参考訳(メタデータ) (2023-06-23T07:01:10Z) - Continuous Online Extrinsic Calibration of Fisheye Camera and LiDAR [7.906477322731106]
高レベルの知覚機能を必要とする共通空間参照フレームにカメラとLiDARデータを融合するためには、正確な外部キャリブレーションが必要である。
連続的なオンライン外部キャリブレーションアルゴリズムは、センサーデータのみを使用して、車両の寿命中にカメラ-LiDARキャリブレーションの値を自動更新することができる。
本稿では,一般的な単眼深度推定ネットワークによって提供されるカメラ画像の深度推定と,外部キャリブレーションの最適化指標としてLiDAR点雲の幾何距離の相互情報を用いることを提案する。
論文 参考訳(メタデータ) (2023-06-22T23:16:31Z) - Automated Static Camera Calibration with Intelligent Vehicles [58.908194559319405]
自動ジオレファレンスカメラキャリブレーションのためのロバストキャリブレーション法を提案する。
本手法では, フィルタ/RTK受信機と慣性測定ユニット(IMU)を組み合わせたキャリブレーション車両が必要である。
我々の手法は、インフラと車両の両方で記録された情報と人間との相互作用を一切必要としない。
論文 参考訳(メタデータ) (2023-04-21T08:50:52Z) - Online Camera-to-ground Calibration for Autonomous Driving [26.357898919134833]
運転中に特定の目標を利用できないオンライン単眼カメラ・地上キャリブレーションソリューションを提案する。
キャリブレーション性能の定量化と,満足度の高いキャリブレーション結果の報告・放送の停止基準を提供する。
論文 参考訳(メタデータ) (2023-03-30T04:01:48Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Practical Auto-Calibration for Spatial Scene-Understanding from
Crowdsourced Dashcamera Videos [1.0499611180329804]
本研究では,クラウドソースビデオからの単眼搭載カメラの自動キャリブレーションシステムを提案する。
提案したシステムの有効性を,KITTI生データ,Oxford RobotCar,クラウドソーシングしたD$2$-Cityデータセット上で確認した。
論文 参考訳(メタデータ) (2020-12-15T15:38:17Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。