論文の概要: Dynamic Weight-based Temporal Aggregation for Low-light Video Enhancement
- arxiv url: http://arxiv.org/abs/2510.09450v1
- Date: Fri, 10 Oct 2025 15:00:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:49.300593
- Title: Dynamic Weight-based Temporal Aggregation for Low-light Video Enhancement
- Title(参考訳): 低照度映像強調のための動的重み付き時間アグリゲーション
- Authors: Ruirui Lin, Guoxi Huang, Nantheera Anantrasirichai,
- Abstract要約: 低照度ビデオの強化はノイズ、低コントラスト、色劣化のために困難である。
DWTA-Netは,短期・長期の時間的手がかりを利用した新しいフレームワークである。
DWTA-Netはノイズやアーティファクトを効果的に抑制し、最先端の手法に比べて優れた視覚的品質を提供する。
- 参考スコア(独自算出の注目度): 6.8703489542630445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-light video enhancement (LLVE) is challenging due to noise, low contrast, and color degradations. Learning-based approaches offer fast inference but still struggle with heavy noise in real low-light scenes, primarily due to limitations in effectively leveraging temporal information. In this paper, we address this issue with DWTA-Net, a novel two-stage framework that jointly exploits short- and long-term temporal cues. Stage I employs Visual State-Space blocks for multi-frame alignment, recovering brightness, color, and structure with local consistency. Stage II introduces a recurrent refinement module with dynamic weight-based temporal aggregation guided by optical flow, adaptively balancing static and dynamic regions. A texture-adaptive loss further preserves fine details while promoting smoothness in flat areas. Experiments on real-world low-light videos show that DWTA-Net effectively suppresses noise and artifacts, delivering superior visual quality compared with state-of-the-art methods.
- Abstract(参考訳): 低照度映像強調(LLVE)はノイズ、低コントラスト、色劣化により困難である。
学習ベースのアプローチは高速な推論を提供するが、時間情報の有効活用に制限があるため、実際の低照度シーンでは依然として大きなノイズに悩まされている。
本稿では,短期・長期の時間的手がかりを共同で活用する新しい2段階フレームワークであるDWTA-Netを用いてこの問題に対処する。
ステージ1では、複数フレームのアライメント、明るさ、色、局所的な一貫性の回復にVisual State-Spaceブロックを使用している。
ステージIIでは、動的重みに基づく時間的アグリゲーションを光学的フローでガイドし、静的領域と動的領域を適応的にバランスさせるリカレントリファインメントモジュールが導入された。
テクスチャ適応損失はさらに細部を保存し、平坦な地域での滑らかさを促進させる。
実世界の低照度ビデオの実験では、DWTA-Netはノイズやアーティファクトを効果的に抑制し、最先端の手法に比べて優れた視覚的品質を提供する。
関連論文リスト
- Zero-TIG: Temporal Consistency-Aware Zero-Shot Illumination-Guided Low-light Video Enhancement [2.9695823613761316]
低照度と水中のビデオは視界が悪く、コントラストが低く、ノイズが高い。
既存のアプローチは通常、ペア化された基底真理に依存しており、実際性は制限され、しばしば時間的一貫性の維持に失敗する。
本稿では、Retinex理論と光フロー技術を活用したゼロショット学習手法Zero-TIGを提案する。
論文 参考訳(メタデータ) (2025-03-14T08:22:26Z) - Rethinking High-speed Image Reconstruction Framework with Spike Camera [48.627095354244204]
スパイクカメラは連続的なスパイクストリームを生成し、従来のRGBカメラよりも低帯域幅でダイナミックレンジの高速シーンをキャプチャする。
従来のトレーニングパラダイムを超える新しいスパイク・ツー・イメージ再構築フレームワークであるSpikeCLIPを導入する。
実世界の低照度データセットに対する実験により、SpikeCLIPはテクスチャの詳細と回復した画像の輝度バランスを大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-01-08T13:00:17Z) - Unrolled Decomposed Unpaired Learning for Controllable Low-Light Video Enhancement [48.76608212565327]
本稿では,2対の地上真実を使わずに,低照度映像のエンハンスメントを学習する上での取り組みについて述べる。
低照度画像の強調に比べて、空間領域におけるノイズ、露出、コントラストの相互干渉効果により、時間的コヒーレンスの必要性が伴うため、低照度映像の強調は困難である。
本稿では,信号の空間的・時間的関連要因に分解するために,最適化関数を深層ネットワークにアンロールすることで低照度映像の高精細化を実現するUnrolled Decompposed Unpaired Network (UDU-Net)を提案する。
論文 参考訳(メタデータ) (2024-08-22T11:45:11Z) - Low-Light Video Enhancement via Spatial-Temporal Consistent Decomposition [52.89441679581216]
低照度ビデオエンハンスメント(LLVE)は、激しい視認性とノイズに悩まされる動的または静的なシーンの復元を目指している。
本稿では、ビューに依存しない、ビューに依存しないコンポーネントを組み込んだ革新的なビデオ分解戦略を提案する。
我々のフレームワークは、既存のメソッドを一貫して上回り、新しいSOTAパフォーマンスを確立します。
論文 参考訳(メタデータ) (2024-05-24T15:56:40Z) - LDM-ISP: Enhancing Neural ISP for Low Light with Latent Diffusion Models [54.93010869546011]
本稿では,事前学習した潜伏拡散モデルを用いて,超低照度画像の高精細化のためのニューラルISPを実現することを提案する。
具体的には、RAWドメイン上で動作するために事前訓練された潜在拡散モデルを調整するために、軽量なテーミングモジュールのセットをトレーニングする。
遅延拡散モデルにおけるUNet復調と復号化の異なる役割を観察し、低照度画像強調タスクを遅延空間低周波コンテンツ生成と復号位相高周波ディテール保守に分解するきっかけとなる。
論文 参考訳(メタデータ) (2023-12-02T04:31:51Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。