論文の概要: A Spatio-temporal Aligned SUNet Model for Low-light Video Enhancement
- arxiv url: http://arxiv.org/abs/2403.02408v3
- Date: Fri, 12 Jul 2024 13:05:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 05:07:34.783805
- Title: A Spatio-temporal Aligned SUNet Model for Low-light Video Enhancement
- Title(参考訳): 低照度映像強調のための時空間アライメントSUNetモデル
- Authors: Ruirui Lin, Nantheera Anantrasirichai, Alexandra Malyugina, David Bull,
- Abstract要約: STA-SUNetモデルは、新しい完全に登録されたデータセット(BVI)に基づいて訓練される
3つのテストデータセット上で、他のさまざまなモデルに対して比較的分析されている。
極端に低照度な条件下では特に有効であり、非常に良好な視覚化結果をもたらす。
- 参考スコア(独自算出の注目度): 44.1973928137492
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distortions caused by low-light conditions are not only visually unpleasant but also degrade the performance of computer vision tasks. The restoration and enhancement have proven to be highly beneficial. However, there are only a limited number of enhancement methods explicitly designed for videos acquired in low-light conditions. We propose a Spatio-Temporal Aligned SUNet (STA-SUNet) model using a Swin Transformer as a backbone to capture low light video features and exploit their spatio-temporal correlations. The STA-SUNet model is trained on a novel, fully registered dataset (BVI), which comprises dynamic scenes captured under varying light conditions. It is further analysed comparatively against various other models over three test datasets. The model demonstrates superior adaptivity across all datasets, obtaining the highest PSNR and SSIM values. It is particularly effective in extreme low-light conditions, yielding fairly good visualisation results.
- Abstract(参考訳): 低照度条件による歪みは視覚的に不快なだけでなく、コンピュータビジョンタスクのパフォーマンスを低下させる。
修復と強化は、非常に有益であることが証明されている。
しかし、低照度で取得したビデオ用に明示的に設計された拡張手法は限られている。
本稿では,Swin Transformer をバックボーンとした時空間適応SUNet(Spatio-Temporal Aligned SUNet)モデルを提案する。
STA-SUNetモデルは、様々な光条件下でキャプチャされた動的なシーンを含む、新しい完全に登録されたデータセット(BVI)に基づいて訓練されている。
さらに3つのテストデータセット上で、他のさまざまなモデルに対して比較分析される。
このモデルは全てのデータセットに対して優れた適応性を示し、最も高いPSNRとSSIM値を得る。
極端に低照度な条件下では特に有効であり、非常に良好な視覚化結果をもたらす。
関連論文リスト
- BVI-RLV: A Fully Registered Dataset and Benchmarks for Low-Light Video Enhancement [56.97766265018334]
本稿では,2つの異なる低照度条件下での様々な動きシナリオを持つ40のシーンからなる低照度映像データセットを提案する。
我々は、プログラム可能なモータードリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供し、異なる光レベルにわたるピクセルワイドフレームアライメントのための画像ベースアプローチによりそれを洗練する。
実験の結果,Low-light Video enhancement (LLVE) における完全登録ビデオペアの重要性が示された。
論文 参考訳(メタデータ) (2024-07-03T22:41:49Z) - From Sim-to-Real: Toward General Event-based Low-light Frame Interpolation with Per-scene Optimization [29.197409507402465]
低照度条件に適したシーンごとの最適化手法を提案する。
その結果,低照度環境における最先端性能が示された。
論文 参考訳(メタデータ) (2024-06-12T11:15:59Z) - Genuine Knowledge from Practice: Diffusion Test-Time Adaptation for
Video Adverse Weather Removal [53.15046196592023]
ビデオの悪天候除去におけるテスト時間適応について紹介する。
本稿では,テスト時間適応を反復拡散逆プロセスに統合する最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-12T14:21:30Z) - BVI-Lowlight: Fully Registered Benchmark Dataset for Low-Light Video Enhancement [44.1973928137492]
本稿では,2つの低照度条件下での様々な動きシナリオにおける40のシーンからなる,新しい低照度映像データセットを提案する。
我々は、プログラム可能な電動ドリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供する。
画像ベースのポストプロセッシングによりそれらを洗練し、異なる光レベルにおけるフレームの画素ワイドアライメントを保証する。
論文 参考訳(メタデータ) (2024-02-03T00:40:22Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - LDM-ISP: Enhancing Neural ISP for Low Light with Latent Diffusion Models [54.93010869546011]
本稿では,事前学習した潜伏拡散モデルを用いて,超低照度画像の高精細化のためのニューラルISPを実現することを提案する。
具体的には、RAWドメイン上で動作するために事前訓練された潜在拡散モデルを調整するために、軽量なテーミングモジュールのセットをトレーニングする。
遅延拡散モデルにおけるUNet復調と復号化の異なる役割を観察し、低照度画像強調タスクを遅延空間低周波コンテンツ生成と復号位相高周波ディテール保守に分解するきっかけとなる。
論文 参考訳(メタデータ) (2023-12-02T04:31:51Z) - Unsupervised network for low-light enhancement [27.052207978537098]
監視ネットワークは、ペア画像を用いた低照度化の課題に対処する。
文脈誘導照明適応規範(CIN)を用いた教師なし低照度化ネットワークを提案する。
また、低照度画像から複数の強調画像を生成することができる領域適応型単一入力多重出力(SIMO)モデルを提案する。
論文 参考訳(メタデータ) (2023-06-05T13:52:08Z) - Leveraging Synthetic Data to Learn Video Stabilization Under Adverse
Conditions [9.070630868911639]
ビデオ安定化のための合成悪天候ロバストアルゴリズムを提案する。
本モデルでは,実世界の映像を一般化し,大規模合成学習データを収束させる必要がない。
論文 参考訳(メタデータ) (2022-08-26T16:21:19Z) - RegNeRF: Regularizing Neural Radiance Fields for View Synthesis from
Sparse Inputs [79.00855490550367]
我々は,多くの入力ビューが利用可能である場合,NeRFは見えない視点のフォトリアリスティックレンダリングを生成することができることを示す。
我々は、未観測の視点からレンダリングされたパッチの幾何学と外観を規則化することで、この問題に対処する。
我々のモデルは、1つのシーンで最適化する他の方法よりも、大規模なマルチビューデータセットで広範囲に事前訓練された条件付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-12-01T18:59:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。