論文の概要: DarkVision: A Benchmark for Low-light Image/Video Perception
- arxiv url: http://arxiv.org/abs/2301.06269v1
- Date: Mon, 16 Jan 2023 05:55:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 16:37:20.988065
- Title: DarkVision: A Benchmark for Low-light Image/Video Perception
- Title(参考訳): DarkVision: 低照度画像/ビデオ認識のためのベンチマーク
- Authors: Bo Zhang, Yuchen Guo, Runzhao Yang, Zhihong Zhang, Jiayi Xie, Jinli
Suo and Qionghai Dai
- Abstract要約: 画像強調とオブジェクト検出の両方に、DarkVisionという、最初のマルチ照度、マルチカメラ、低照度データセットをコントリビュートする。
データセットは明るい暗黒のペアで構成され、900の静的なシーンと15のカテゴリのオブジェクト、32のダイナミックなシーンと4つのカテゴリのオブジェクトで構成されている。
それぞれのシーンで、画像/ビデオは3つのグレードのカメラを使用して5つの照度レベルで撮影され、平均光子を確実に推定することができる。
- 参考スコア(独自算出の注目度): 44.94878263751042
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Imaging and perception in photon-limited scenarios is necessary for various
applications, e.g., night surveillance or photography, high-speed photography,
and autonomous driving. In these cases, cameras suffer from low signal-to-noise
ratio, which degrades the image quality severely and poses challenges for
downstream high-level vision tasks like object detection and recognition.
Data-driven methods have achieved enormous success in both image restoration
and high-level vision tasks. However, the lack of high-quality benchmark
dataset with task-specific accurate annotations for photon-limited
images/videos delays the research progress heavily. In this paper, we
contribute the first multi-illuminance, multi-camera, and low-light dataset,
named DarkVision, serving for both image enhancement and object detection. We
provide bright and dark pairs with pixel-wise registration, in which the bright
counterpart provides reliable reference for restoration and annotation. The
dataset consists of bright-dark pairs of 900 static scenes with objects from 15
categories, and 32 dynamic scenes with 4-category objects. For each scene,
images/videos were captured at 5 illuminance levels using three cameras of
different grades, and average photons can be reliably estimated from the
calibration data for quantitative studies. The static-scene images and dynamic
videos respectively contain around 7,344 and 320,667 instances in total. With
DarkVision, we established baselines for image/video enhancement and object
detection by representative algorithms. To demonstrate an exemplary application
of DarkVision, we propose two simple yet effective approaches for improving
performance in video enhancement and object detection respectively. We believe
DarkVision would advance the state-of-the-arts in both imaging and related
computer vision tasks in low-light environment.
- Abstract(参考訳): 光子制限シナリオのイメージングと知覚は、夜間監視や写真撮影、高速撮影、自律運転といった様々な用途に必要である。
このような場合、カメラは低信号対雑音比に悩まされ、画質が著しく低下し、物体検出や認識といった下流の高レベルの視覚タスクに課題が生じる。
データ駆動型メソッドは、画像復元と高レベルのビジョンタスクの両方で大きな成功を収めています。
しかしながら、光子制限画像/ビデオに対するタスク固有の正確なアノテーションを備えた高品質なベンチマークデータセットの欠如は、研究の進捗を著しく遅らせる。
本稿では,DarkVision という,最初のマルチ照度,マルチカメラ,低照度データセットをコントリビュートし,画像強調と物体検出の両方に役立てる。
明るいペアと暗いペアに画素単位の登録を行い、明るいペアが復元やアノテーションの信頼できる参照を提供する。
データセットは、900の静的なシーンと15のカテゴリのオブジェクト、32のダイナミックなシーンと4つのカテゴリのオブジェクトで構成されている。
各シーンは、異なる3種類のカメラを用いて5つの照度レベルで撮影され、平均光子を定量化データから確実に推定することができる。
静的シーンの画像とダイナミックビデオはそれぞれ7,344件と320,667件のインスタンスを含んでいる。
DarkVisionでは,代表アルゴリズムによる画像/映像強調とオブジェクト検出のためのベースラインを構築した。
darkvisionの例示的応用を示すために,ビデオエンハンスメントとオブジェクト検出の性能向上のための2つの単純かつ効果的なアプローチを提案する。
われわれはDarkVisionが低照度環境における画像および関連するコンピュータビジョンタスクの最先端を前進させると考えている。
関連論文リスト
- BlinkVision: A Benchmark for Optical Flow, Scene Flow and Point Tracking Estimation using RGB Frames and Events [72.25918104830252]
我々はBlinkVisionを提案する。BlinkVisionは大規模かつ多彩なベンチマークで、複数のモダリティと高密度対応アノテーションを持つ。
BlinkVisionは、フォトリアリスティックなデータを提供し、カメラの揺らぎや変形など、さまざまな自然主義的な要素をカバーしている。
画像ベースとイベントベースの両方の3種類の対応タスク(光学フロー、点追跡、シーンフロー推定)の広範なベンチマークを可能にする。
論文 参考訳(メタデータ) (2024-10-27T13:59:21Z) - HUE Dataset: High-Resolution Event and Frame Sequences for Low-Light Vision [16.432164340779266]
低照度条件下での高分解能イベントとフレームシーケンスのコレクションであるHUEデータセットを紹介する。
私たちのデータセットには、屋内、都市景観、トワイライト、夜、運転、制御されたシナリオを含む106のシーケンスが含まれています。
我々は定性評価と定量的評価の両方を用いて、最先端の低照度化と事象に基づく画像再構成手法を評価する。
論文 参考訳(メタデータ) (2024-10-24T21:15:15Z) - PIV3CAMS: a multi-camera dataset for multiple computer vision problems and its application to novel view-point synthesis [120.4361056355332]
この論文では、3つのCAMeraS、すなわちPIV3CAMSからPaired Image and Videoのデータを紹介している。
PIV3CAMSデータセットは8385対の画像と82対のビデオで構成されている。
本稿では,現在最先端のアルゴリズムの再構築に加えて,深度情報を幾何的に統合する代替モデルについても検討する。
論文 参考訳(メタデータ) (2024-07-26T12:18:29Z) - BVI-RLV: A Fully Registered Dataset and Benchmarks for Low-Light Video Enhancement [56.97766265018334]
本稿では,2つの異なる低照度条件下での様々な動きシナリオを持つ40のシーンからなる低照度映像データセットを提案する。
我々は、プログラム可能なモータードリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供し、異なる光レベルにわたるピクセルワイドフレームアライメントのための画像ベースアプローチによりそれを洗練する。
実験の結果,Low-light Video enhancement (LLVE) における完全登録ビデオペアの重要性が示された。
論文 参考訳(メタデータ) (2024-07-03T22:41:49Z) - Neuromorphic Synergy for Video Binarization [54.195375576583864]
バイモーダルオブジェクトは視覚システムによって容易に認識できる情報を埋め込む視覚形式として機能する。
ニューロモルフィックカメラは、動きのぼかしを緩和する新しい機能を提供するが、最初にブルーを脱色し、画像をリアルタイムでバイナライズするのは簡単ではない。
本稿では,イベント空間と画像空間の両方で独立に推論を行うために,バイモーダル目標特性の事前知識を活用するイベントベースバイナリ再構築手法を提案する。
また、このバイナリ画像を高フレームレートバイナリビデオに伝搬する効率的な統合手法も開発している。
論文 参考訳(メタデータ) (2024-02-20T01:43:51Z) - BVI-Lowlight: Fully Registered Benchmark Dataset for Low-Light Video Enhancement [44.1973928137492]
本稿では,2つの低照度条件下での様々な動きシナリオにおける40のシーンからなる,新しい低照度映像データセットを提案する。
我々は、プログラム可能な電動ドリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供する。
画像ベースのポストプロセッシングによりそれらを洗練し、異なる光レベルにおけるフレームの画素ワイドアライメントを保証する。
論文 参考訳(メタデータ) (2024-02-03T00:40:22Z) - Deep Learning for Event-based Vision: A Comprehensive Survey and Benchmarks [55.81577205593956]
イベントカメラはバイオインスパイアされたセンサーで、ピクセルごとの強度の変化を非同期に捉える。
深層学習(DL)はこの新興分野に導入され、その可能性のマイニングに活発な研究努力にインスピレーションを与えている。
論文 参考訳(メタデータ) (2023-02-17T14:19:28Z) - LIGHTS: LIGHT Specularity Dataset for specular detection in Multi-view [12.612981566441908]
本研究では,新たな物理ベースレンダリングされたLIGHT Specularity(SLIGHT)データセットを提案する。
私たちのデータセットは、各シーンが複数のビューでレンダリングされる18の高品質の建築シーンで構成されています。
合計で2,603のビューがあり、1シーンあたり平均145のビューがあります。
論文 参考訳(メタデータ) (2021-01-26T13:26:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。