論文の概要: Reproducible Evaluation of Camera Auto-Exposure Methods in the Field: Platform, Benchmark and Lessons Learned
- arxiv url: http://arxiv.org/abs/2506.18844v1
- Date: Thu, 19 Jun 2025 14:01:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:37.09637
- Title: Reproducible Evaluation of Camera Auto-Exposure Methods in the Field: Platform, Benchmark and Lessons Learned
- Title(参考訳): 現場におけるカメラ自動露光手法の再現性評価:プラットフォーム,ベンチマーク,教訓
- Authors: Olivier Gamache, Jean-Michel Fortin, Matěj Boxan, François Pomerleau, Philippe Giguère,
- Abstract要約: 露光時に画像を生成するエミュレータを利用する手法を提案する。
様々な露出時間で取得した画像を使用することで,地上の真理画像と比較して1.78%未満のルート平均二乗誤差(RMSE)で画像をエミュレートできることを実証した。
- 参考スコア(独自算出の注目度): 2.913537672351879
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standard datasets often present limitations, particularly due to the fixed nature of input data sensors, which makes it difficult to compare methods that actively adjust sensor parameters to suit environmental conditions. This is the case with Automatic-Exposure (AE) methods, which rely on environmental factors to influence the image acquisition process. As a result, AE methods have traditionally been benchmarked in an online manner, rendering experiments non-reproducible. Building on our prior work, we propose a methodology that utilizes an emulator capable of generating images at any exposure time. This approach leverages BorealHDR, a unique multi-exposure stereo dataset, along with its new extension, in which data was acquired along a repeated trajectory at different times of the day to assess the impact of changing illumination. In total, BorealHDR covers 13.4 km over 59 trajectories in challenging lighting conditions. The dataset also includes lidar-inertial-odometry-based maps with pose estimation for each image frame, as well as Global Navigation Satellite System (GNSS) data for comparison. We demonstrate that by using images acquired at various exposure times, we can emulate realistic images with a Root-Mean-Square Error (RMSE) below 1.78% compared to ground truth images. Using this offline approach, we benchmarked eight AE methods, concluding that the classical AE method remains the field's best performer. To further support reproducibility, we provide in-depth details on the development of our backpack acquisition platform, including hardware, electrical components, and performance specifications. Additionally, we share valuable lessons learned from deploying the backpack over more than 25 km across various environments. Our code and dataset are available online at this link: https://github.com/norlab-ulaval/TFR24 BorealHDR
- Abstract(参考訳): 標準データセットはしばしば、特に入力データセンサーの固定された性質のため、環境条件に合ったセンサーパラメータを積極的に調整する手法を比較するのが困難である。
これは、画像取得プロセスに影響を与える環境要因に依存する自動露光法(AE)の例である。
その結果、AE法は伝統的にオンライン方式でベンチマークされ、実験は再現不可能である。
先行研究に基づいて,任意の露出時間で画像を生成するエミュレータを利用する手法を提案する。
このアプローチでは、ユニークなマルチ露光ステレオデータセットであるBorealHDRと、その新たな拡張を活用して、その日の異なる時間に繰り返し軌跡に沿ってデータを取得して、照明の変化の影響を評価する。
ボレアルHDRは、59の軌跡を13.4km上回る照明条件でカバーしている。
データセットには、各画像フレームに対するポーズ推定を備えたライダー慣性オーソメトリベースのマップや、比較のためのグローバルナビゲーション衛星システム(GNSS)データも含まれている。
様々な露出時間で取得した画像を使用することで,実写画像を実写画像と比較して1.78%以下でエミュレートできることを実証した。
このオフライン手法を用いて、8つのAE法をベンチマークし、古典的AE法がフィールドの最高のパフォーマンスを保っていると結論付けた。
再現性をさらに向上するために、ハードウェア、電気部品、性能仕様を含むバックパック取得プラットフォームの開発について、詳細な情報を提供する。
さらに、さまざまな環境に25km以上にわたってバックパックを配置することから学んだ貴重な教訓を共有します。
私たちのコードとデータセットはこのリンクでオンラインで入手できる。
関連論文リスト
- RaSCL: Radar to Satellite Crossview Localization [20.34909681483566]
オードメトリによる相対的なポーズとオードメトリによるグローバルなポーズを共同で最適化し,地上にRGB画像を用いた画像レーダを登録する方法を提案する。
本研究は,地上レーダと1つのジオレファレンス推定値を用いて,RGBオーバーヘッド画像から重要な特徴を抽出し,地上画像に対して効果的なグローバルローカライゼーションを行うための知見を提示する。
論文 参考訳(メタデータ) (2025-04-22T13:41:04Z) - Super-resolving Real-world Image Illumination Enhancement: A New Dataset and A Conditional Diffusion Model [43.93772529301279]
本稿では,効率的な条件拡散確率モデルに基づくSRRIIEデータセットを提案する。
画像はILDCカメラと光学ズームレンズで撮影し、露光レベルは6EVから0EV、ISOレベルは50~12800である。
既存の手法は, 複雑なノイズから復元した画像の構造やシャープさを保ちつつも, 有効性は低いことが示唆された。
論文 参考訳(メタデータ) (2024-10-16T18:47:04Z) - ContextualFusion: Context-Based Multi-Sensor Fusion for 3D Object Detection in Adverse Operating Conditions [1.7537812081430004]
本研究では,3次元物体検出モデルにカメラやライダーの知識を取り入れたContextualFusionという手法を提案する。
我々の手法は、文脈バランスの取れた合成データセットの最先端手法に対して6.2%のmAP改善をもたらす。
本手法は,実世界のNuScenesデータセット上での夜間の3D対物性能を11.7%向上させる。
論文 参考訳(メタデータ) (2024-04-23T06:37:54Z) - Learning Exposure Correction in Dynamic Scenes [24.302307771649232]
我々は、露光不足と露光過多の両方を含む、世界初の実世界のペアビデオデータセットを構築した。
両ストリームモジュールは、露光不足と露光過多の両方に対処するように設計されている。
論文 参考訳(メタデータ) (2024-02-27T08:19:51Z) - CarPatch: A Synthetic Benchmark for Radiance Field Evaluation on Vehicle
Components [77.33782775860028]
車両の新たな総合ベンチマークであるCarPatchを紹介する。
内在カメラパラメータと外在カメラパラメータを付加した画像のセットに加えて、各ビューに対して対応する深度マップとセマンティックセグメンテーションマスクが生成されている。
グローバルとパートベースのメトリクスは、いくつかの最先端技術を評価し、比較し、より良い特徴付けるために定義され、使われてきた。
論文 参考訳(メタデータ) (2023-07-24T11:59:07Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - 6D Camera Relocalization in Visually Ambiguous Extreme Environments [79.68352435957266]
本研究では,深海や地球外地形などの極端な環境下で得られた画像の列から,カメラのポーズを確実に推定する手法を提案する。
本手法は,室内ベンチマーク (7-Scenes データセット) における最先端手法と同等の性能を20%のトレーニングデータで達成する。
論文 参考訳(メタデータ) (2022-07-13T16:40:02Z) - Neural Radiance Fields for Outdoor Scene Relighting [70.97747511934705]
ニューラルラジアンス場に基づく屋外シーンライティングのための最初のアプローチであるNeRF-OSRを提案する。
従来の技術とは対照的に,本手法はシーン照明とカメラ視点の同時編集を可能にする。
シャドウ再現のための専用ネットワークも備えており、高品質の屋外照明に欠かせない。
論文 参考訳(メタデータ) (2021-12-09T18:59:56Z) - MC-Blur: A Comprehensive Benchmark for Image Deblurring [127.6301230023318]
ほとんどの実世界の画像では、ブラーは動きやデフォーカスなど様々な要因によって引き起こされる。
我々は,MC-Blurと呼ばれる大規模マルチライク画像デブロアリングデータセットを新たに構築する。
MC-Blurデータセットに基づいて,異なるシナリオにおけるSOTA法の比較を行う。
論文 参考訳(メタデータ) (2021-12-01T02:10:42Z) - Multi-View Photometric Stereo: A Robust Solution and Benchmark Dataset
for Spatially Varying Isotropic Materials [65.95928593628128]
多視点光度ステレオ技術を用いて3次元形状と空間的に異なる反射率の両方をキャプチャする手法を提案する。
我々のアルゴリズムは、遠近点光源と遠近点光源に適している。
論文 参考訳(メタデータ) (2020-01-18T12:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。