論文の概要: Zero-TIG: Temporal Consistency-Aware Zero-Shot Illumination-Guided Low-light Video Enhancement
- arxiv url: http://arxiv.org/abs/2503.11175v1
- Date: Fri, 14 Mar 2025 08:22:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:09:01.633549
- Title: Zero-TIG: Temporal Consistency-Aware Zero-Shot Illumination-Guided Low-light Video Enhancement
- Title(参考訳): Zero-TIG: 時間的整合性を考慮したゼロショット照明誘導低照度映像強調
- Authors: Yini Li, Nantheera Anantrasirichai,
- Abstract要約: 低照度と水中のビデオは視界が悪く、コントラストが低く、ノイズが高い。
既存のアプローチは通常、ペア化された基底真理に依存しており、実際性は制限され、しばしば時間的一貫性の維持に失敗する。
本稿では、Retinex理論と光フロー技術を活用したゼロショット学習手法Zero-TIGを提案する。
- 参考スコア(独自算出の注目度): 2.9695823613761316
- License:
- Abstract: Low-light and underwater videos suffer from poor visibility, low contrast, and high noise, necessitating enhancements in visual quality. However, existing approaches typically rely on paired ground truth, which limits their practicality and often fails to maintain temporal consistency. To overcome these obstacles, this paper introduces a novel zero-shot learning approach named Zero-TIG, leveraging the Retinex theory and optical flow techniques. The proposed network consists of an enhancement module and a temporal feedback module. The enhancement module comprises three subnetworks: low-light image denoising, illumination estimation, and reflection denoising. The temporal enhancement module ensures temporal consistency by incorporating histogram equalization, optical flow computation, and image warping to align the enhanced previous frame with the current frame, thereby maintaining continuity. Additionally, we address color distortion in underwater data by adaptively balancing RGB channels. The experimental results demonstrate that our method achieves low-light video enhancement without the need for paired training data, making it a promising and applicable method for real-world scenario enhancement.
- Abstract(参考訳): 低照度・水中ビデオは視界不良、低コントラスト、高ノイズに悩まされ、視覚的品質が向上する。
しかし、既存のアプローチは一般的にペアの基底真理に依存しており、実際性は制限され、しばしば時間的一貫性の維持に失敗する。
これらの障害を克服するために,Zero-TIGという新しいゼロショット学習手法を導入し,Retinex理論と光フロー技術を利用した。
提案するネットワークは,拡張モジュールと時間フィードバックモジュールから構成される。
エンハンスメントモジュールは、低照度撮像、照明推定、反射復調の3つのサブネットからなる。
時間的拡張モジュールは、ヒストグラム等化、光フロー計算、画像ワープを組み込んで時間的整合性を確保し、拡張前のフレームを現在のフレームに整合させ、連続性を維持する。
さらに、RGBチャネルを適応的にバランスさせることにより、水中データの色歪みに対処する。
実験により,2つのトレーニングデータを必要としない低照度映像のエンハンスメントを実現し,現実のシナリオエンハンスメントに有望かつ適用可能な手法であることを実証した。
関連論文リスト
- Spatiotemporal Blind-Spot Network with Calibrated Flow Alignment for Self-Supervised Video Denoising [23.07977702905715]
自己監督型ビデオデノベーションは、地上の真実データに頼ることなく、ビデオからノイズを取り除くことを目的としている。
本研究では,グローバルフレーム機能利用のための時空間ブラインドスポットネットワーク(STBN)を提案する。
提案手法は,合成および実世界のビデオデノゲーションデータセットにおいて,優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-16T14:37:16Z) - Unrolled Decomposed Unpaired Learning for Controllable Low-Light Video Enhancement [48.76608212565327]
本稿では,2対の地上真実を使わずに,低照度映像のエンハンスメントを学習する上での取り組みについて述べる。
低照度画像の強調に比べて、空間領域におけるノイズ、露出、コントラストの相互干渉効果により、時間的コヒーレンスの必要性が伴うため、低照度映像の強調は困難である。
本稿では,信号の空間的・時間的関連要因に分解するために,最適化関数を深層ネットワークにアンロールすることで低照度映像の高精細化を実現するUnrolled Decompposed Unpaired Network (UDU-Net)を提案する。
論文 参考訳(メタデータ) (2024-08-22T11:45:11Z) - Low-Light Video Enhancement via Spatial-Temporal Consistent Illumination and Reflection Decomposition [68.6707284662443]
低照度ビデオエンハンスメント(LLVE)は、激しい視認性とノイズに悩まされる動的および静的なシーンの復元を目指している。
1つの重要な側面は、時間空間照明と外観強化バージョンに特化した一貫性の制約を定式化することである。
本稿では,レチネックスを基盤とした革新的なビデオ分解戦略について述べる。
論文 参考訳(メタデータ) (2024-05-24T15:56:40Z) - DARK: Denoising, Amplification, Restoration Kit [0.7670170505111058]
本稿では,低照度条件下での画像強調のための軽量な計算フレームワークを提案する。
我々のモデルは軽量に設計されており、標準のコンシューマハードウェア上でのリアルタイムアプリケーションに対する低計算需要と適合性を保証する。
論文 参考訳(メタデータ) (2024-05-21T16:01:13Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - Cycle-Interactive Generative Adversarial Network for Robust Unsupervised
Low-Light Enhancement [109.335317310485]
CIGAN(Cycle-Interactive Generative Adversarial Network)は、低照度画像間の照明分布の転送を改善できるだけでなく、詳細な信号も操作できる。
特に、提案した低照度誘導変換は、低照度GAN生成器から劣化GAN生成器へ、低照度画像の特徴をフォワードする。
論文 参考訳(メタデータ) (2022-07-03T06:37:46Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - Progressive Joint Low-light Enhancement and Noise Removal for Raw Images [10.778200442212334]
モバイル機器の低照度撮像は、比較的小さな開口部を通過する入射光が不足しているため、通常困難である。
そこで我々は,共同照明調整,色強調,遮音を行う低照度画像処理フレームワークを提案する。
我々のフレームワークは、他のカメラモデルに適応する際に、大量のデータを再構成する必要はない。
論文 参考訳(メタデータ) (2021-06-28T16:43:52Z) - Neural Video Portrait Relighting in Real-time via Consistency Modeling [41.04622998356025]
本稿では,リアルタイム,高品質,コヒーレントな映像ポートレートリライティングのためのニューラルアプローチを提案する。
エンコーダデコーダアーキテクチャにおけるハイブリッド構造と照明非絡み合いを提案する。
また,実世界における自然ポートレート光操作の照明一貫性と突然変異をモデル化する照明サンプリング戦略を提案する。
論文 参考訳(メタデータ) (2021-04-01T14:13:28Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。