論文の概要: Towards a General-Purpose Zero-Shot Synthetic Low-Light Image and Video Pipeline
- arxiv url: http://arxiv.org/abs/2504.12169v1
- Date: Wed, 16 Apr 2025 15:19:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:38:44.202005
- Title: Towards a General-Purpose Zero-Shot Synthetic Low-Light Image and Video Pipeline
- Title(参考訳): 汎用ゼロショット合成低光画像とビデオパイプラインを目指して
- Authors: Joanne Lin, Crispian Morris, Ruirui Lin, Fan Zhang, David Bull, Nantheera Anantrasirichai,
- Abstract要約: 本稿では,カメラメタデータを必要とせずに,リアルな標準RGB(sRGB)ノイズを合成的に生成する新しい劣化推定ネットワーク(DEN)を提案する。
合成雑音の再現, 映像強調, 物体検出など, 典型的な低照度タスクに対して, 合成データに基づいて訓練した様々な手法を用いて, 合成パイプラインの評価を行った。
- 参考スコア(独自算出の注目度): 3.811151974338892
- License:
- Abstract: Low-light conditions pose significant challenges for both human and machine annotation. This in turn has led to a lack of research into machine understanding for low-light images and (in particular) videos. A common approach is to apply annotations obtained from high quality datasets to synthetically created low light versions. In addition, these approaches are often limited through the use of unrealistic noise models. In this paper, we propose a new Degradation Estimation Network (DEN), which synthetically generates realistic standard RGB (sRGB) noise without the requirement for camera metadata. This is achieved by estimating the parameters of physics-informed noise distributions, trained in a self-supervised manner. This zero-shot approach allows our method to generate synthetic noisy content with a diverse range of realistic noise characteristics, unlike other methods which focus on recreating the noise characteristics of the training data. We evaluate our proposed synthetic pipeline using various methods trained on its synthetic data for typical low-light tasks including synthetic noise replication, video enhancement, and object detection, showing improvements of up to 24\% KLD, 21\% LPIPS, and 62\% AP$_{50-95}$, respectively.
- Abstract(参考訳): 低照度条件は、人間と機械のアノテーションの両方に重大な課題をもたらす。
そのため、低照度画像や(特に)ビデオに対する機械理解の研究が欠如している。
一般的なアプローチは、高品質なデータセットから得られたアノテーションを合成的に生成された低光バージョンに適用することである。
さらに、これらのアプローチは非現実的なノイズモデルを使用することによって制限されることが多い。
本稿では,カメラメタデータを必要とせずに,リアルな標準RGB(sRGB)ノイズを合成的に生成する新しい劣化推定ネットワークを提案する。
これは、自己教師された方法で訓練された物理インフォームドノイズ分布のパラメータを推定することで達成される。
このゼロショット手法により、トレーニングデータのノイズ特性を再現する他の方法とは異なり、多様な現実的なノイズ特性を持つ合成ノイズコンテンツを生成することができる。
合成雑音の再現, 映像強調, 物体検出など, 一般的な低照度タスクに対して, 合成データに基づいて学習した様々な手法を用いて, 合成パイプラインの評価を行い, 最大24 % KLD, 21 % LPIPS, 62 % AP$_{50-95}$の改善を示した。
関連論文リスト
- BVI-RLV: A Fully Registered Dataset and Benchmarks for Low-Light Video Enhancement [56.97766265018334]
本稿では,2つの異なる低照度条件下での様々な動きシナリオを持つ40のシーンからなる低照度映像データセットを提案する。
我々は、プログラム可能なモータードリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供し、異なる光レベルにわたるピクセルワイドフレームアライメントのための画像ベースアプローチによりそれを洗練する。
実験の結果,Low-light Video enhancement (LLVE) における完全登録ビデオペアの重要性が示された。
論文 参考訳(メタデータ) (2024-07-03T22:41:49Z) - Make Explicit Calibration Implicit: Calibrate Denoiser Instead of the
Noise Model [83.9497193551511]
デジタルゲインやカメラセンサーによらず有効であるLED(Lighting Every Darkness)を導入する。
LEDは明示的なノイズモデルのキャリブレーションの必要性を排除し、高速な展開と最小限のデータを必要とする暗黙の微調整プロセスを活用する。
LEDは、センサー工学の利点を生かしながら、ディープラーニングの進歩にもっと注力することを可能にする。
論文 参考訳(メタデータ) (2023-08-07T10:09:11Z) - Towards General Low-Light Raw Noise Synthesis and Modeling [37.87312467017369]
生成モデルにより信号非依存ノイズを合成する新しい視点を導入する。
具体的には、信号に依存しないノイズと信号に依存しないノイズを物理と学習に基づく方法で合成する。
このようにして、本手法は一般的なモデルとみなすことができ、つまり、異なるISOレベルの異なるノイズ特性を同時に学習することができる。
論文 参考訳(メタデータ) (2023-07-31T09:10:10Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - Instance Segmentation in the Dark [43.85818645776587]
暗黒領域のインスタンスセグメンテーションを深く見て、低照度推論精度を大幅に向上させるテクニックをいくつか導入する。
本稿では,適応重み付きダウンサンプリング層,スムーズな指向性畳み込みブロック,外乱抑制学習に依存する新しい学習手法を提案する。
実世界の低照度インスタンスセグメンテーションデータセットを,2万組以上の低照度/通常照度画像と,インスタンスレベルのピクセル単位のアノテーションでキャプチャする。
論文 参考訳(メタデータ) (2023-04-27T16:02:29Z) - FSID: Fully Synthetic Image Denoising via Procedural Scene Generation [12.277286575812441]
低レベルの視覚タスクに適した手続き型合成データ生成パイプラインとデータセットを開発する。
我々のUnrealエンジンベースの合成データパイプラインは、ランダムな3Dオブジェクト、材料、幾何学的変換の組み合わせで、大きなシーンをアルゴリズムで生成します。
そこで我々は,CNNに基づく復調モデルの訓練と検証を行い,この合成データのみを用いてトレーニングしたモデルが競争性のある復調結果が得られることを示した。
論文 参考訳(メタデータ) (2022-12-07T21:21:55Z) - Rethinking Noise Synthesis and Modeling in Raw Denoising [75.55136662685341]
センサの実際の雑音を直接サンプリングすることで、ノイズを合成する新しい視点を導入する。
それは本質的に、異なるカメラセンサーに対して正確な生画像ノイズを発生させる。
論文 参考訳(メタデータ) (2021-10-10T10:45:24Z) - Physics-based Noise Modeling for Extreme Low-light Photography [63.65570751728917]
CMOS光センサの撮像パイプラインにおけるノイズ統計について検討する。
実雑音構造を正確に特徴付けることのできる包括的ノイズモデルを定式化する。
我々のノイズモデルは、学習に基づく低照度復調アルゴリズムのためのリアルなトレーニングデータを合成するのに利用できる。
論文 参考訳(メタデータ) (2021-08-04T16:36:29Z) - A Physics-based Noise Formation Model for Extreme Low-light Raw
Denoising [34.98772175073111]
CMOS光センサの特性に基づく高精度なノイズ生成モデルを提案する。
また,現代のデジタルカメラにおけるノイズパラメータの校正手法を提案する。
論文 参考訳(メタデータ) (2020-03-28T09:16:48Z) - CycleISP: Real Image Restoration via Improved Data Synthesis [166.17296369600774]
本稿では,前向きと逆方向のカメラ画像パイプラインをモデル化するフレームワークを提案する。
リアルな合成データに基づいて新しい画像認識ネットワークをトレーニングすることにより、実際のカメラベンチマークデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-03-17T15:20:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。