論文の概要: A Spatio-temporal Aligned SUNet Model for Low-light Video Enhancement
- arxiv url: http://arxiv.org/abs/2403.02408v1
- Date: Mon, 4 Mar 2024 19:06:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 17:23:25.349666
- Title: A Spatio-temporal Aligned SUNet Model for Low-light Video Enhancement
- Title(参考訳): 低光映像エンハンスメントのための時空間アライメントスネットモデル
- Authors: Ruirui Lin, Nantheera Anantrasirichai, Alexandra Malyugina, David Bull
- Abstract要約: STA-SUNetモデルは、新しい完全に登録されたデータセット(BVI)に基づいて訓練される
3つのテストデータセット上で、他のさまざまなモデルに対して比較的分析されている。
極端に低照度な条件下では特に有効であり、非常に良好な視覚化結果をもたらす。
- 参考スコア(独自算出の注目度): 47.41699406259656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distortions caused by low-light conditions are not only visually unpleasant
but also degrade the performance of computer vision tasks. The restoration and
enhancement have proven to be highly beneficial. However, there are only a
limited number of enhancement methods explicitly designed for videos acquired
in low-light conditions. We propose a Spatio-Temporal Aligned SUNet (STA-SUNet)
model using a Swin Transformer as a backbone to capture low light video
features and exploit their spatio-temporal correlations. The STA-SUNet model is
trained on a novel, fully registered dataset (BVI), which comprises dynamic
scenes captured under varying light conditions. It is further analysed
comparatively against various other models over three test datasets. The model
demonstrates superior adaptivity across all datasets, obtaining the highest
PSNR and SSIM values. It is particularly effective in extreme low-light
conditions, yielding fairly good visualisation results.
- Abstract(参考訳): 低照度条件による歪みは視覚的に不快なだけでなく、コンピュータビジョンタスクのパフォーマンスを低下させる。
修復と強化は、非常に有益であることが証明されている。
しかし、低照度で取得したビデオ用に明示的に設計された拡張手法は限られている。
本稿では,スウィントランスをバックボーンとして,低光度映像の特徴を捉え,その時空間相関を利用した時空間整合sunet(sta-sunet)モデルを提案する。
sta-sunetモデルは、新しい完全に登録されたデータセット(bvi)でトレーニングされ、様々な光条件下でキャプチャされた動的シーンを含む。
さらに、3つのテストデータセット上の他の様々なモデルに対して比較分析される。
このモデルは全てのデータセットに対して優れた適応性を示し、最も高いPSNRとSSIM値を得る。
極端に低照度な条件下では特に有効であり、非常に良好な視覚化結果をもたらす。
関連論文リスト
- Event-guided Low-light Video Semantic Segmentation [6.938849566816958]
イベントカメラは、モーションダイナミクスをキャプチャし、時間依存情報をフィルタリングし、照明条件に対して堅牢である。
本稿では、イベントモダリティを利用した軽量なフレームワークであるEVSNetを提案し、統一照明不変表現の学習を指導する。
具体的には、動き抽出モジュールを利用して、事象のモーダルから短期・長期の時間的動きを抽出し、モーションフュージョンモジュールを用いて画像特徴と動き特徴を適応的に統合する。
論文 参考訳(メタデータ) (2024-11-01T14:54:34Z) - BVI-RLV: A Fully Registered Dataset and Benchmarks for Low-Light Video Enhancement [56.97766265018334]
本稿では,2つの異なる低照度条件下での様々な動きシナリオを持つ40のシーンからなる低照度映像データセットを提案する。
我々は、プログラム可能なモータードリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供し、異なる光レベルにわたるピクセルワイドフレームアライメントのための画像ベースアプローチによりそれを洗練する。
実験の結果,Low-light Video enhancement (LLVE) における完全登録ビデオペアの重要性が示された。
論文 参考訳(メタデータ) (2024-07-03T22:41:49Z) - From Sim-to-Real: Toward General Event-based Low-light Frame Interpolation with Per-scene Optimization [29.197409507402465]
低照度条件に適したシーンごとの最適化手法を提案する。
その結果,低照度環境における最先端性能が示された。
論文 参考訳(メタデータ) (2024-06-12T11:15:59Z) - Genuine Knowledge from Practice: Diffusion Test-Time Adaptation for
Video Adverse Weather Removal [53.15046196592023]
ビデオの悪天候除去におけるテスト時間適応について紹介する。
本稿では,テスト時間適応を反復拡散逆プロセスに統合する最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-12T14:21:30Z) - BVI-Lowlight: Fully Registered Benchmark Dataset for Low-Light Video Enhancement [44.1973928137492]
本稿では,2つの低照度条件下での様々な動きシナリオにおける40のシーンからなる,新しい低照度映像データセットを提案する。
我々は、プログラム可能な電動ドリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供する。
画像ベースのポストプロセッシングによりそれらを洗練し、異なる光レベルにおけるフレームの画素ワイドアライメントを保証する。
論文 参考訳(メタデータ) (2024-02-03T00:40:22Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - LDM-ISP: Enhancing Neural ISP for Low Light with Latent Diffusion Models [54.93010869546011]
本稿では,事前学習した潜伏拡散モデルを用いて,超低照度画像の高精細化のためのニューラルISPを実現することを提案する。
具体的には、RAWドメイン上で動作するために事前訓練された潜在拡散モデルを調整するために、軽量なテーミングモジュールのセットをトレーニングする。
遅延拡散モデルにおけるUNet復調と復号化の異なる役割を観察し、低照度画像強調タスクを遅延空間低周波コンテンツ生成と復号位相高周波ディテール保守に分解するきっかけとなる。
論文 参考訳(メタデータ) (2023-12-02T04:31:51Z) - Leveraging Synthetic Data to Learn Video Stabilization Under Adverse
Conditions [9.070630868911639]
ビデオ安定化のための合成悪天候ロバストアルゴリズムを提案する。
本モデルでは,実世界の映像を一般化し,大規模合成学習データを収束させる必要がない。
論文 参考訳(メタデータ) (2022-08-26T16:21:19Z) - RegNeRF: Regularizing Neural Radiance Fields for View Synthesis from
Sparse Inputs [79.00855490550367]
我々は,多くの入力ビューが利用可能である場合,NeRFは見えない視点のフォトリアリスティックレンダリングを生成することができることを示す。
我々は、未観測の視点からレンダリングされたパッチの幾何学と外観を規則化することで、この問題に対処する。
我々のモデルは、1つのシーンで最適化する他の方法よりも、大規模なマルチビューデータセットで広範囲に事前訓練された条件付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-12-01T18:59:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。