論文の概要: All-in-One Video Restoration under Smoothly Evolving Unknown Weather Degradations
- arxiv url: http://arxiv.org/abs/2601.00533v1
- Date: Fri, 02 Jan 2026 02:20:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.500053
- Title: All-in-One Video Restoration under Smoothly Evolving Unknown Weather Degradations
- Title(参考訳): 未知の気象劣化に伴うスムーズな映像再生
- Authors: Wenrui Li, Hongtao Chen, Yao Xiao, Wangmeng Zuo, Jiantao Zhou, Yonghong Tian, Xiaopeng Fan,
- Abstract要約: All-in-one画像復元は、単一のモデルを用いて、さまざまな未知の劣化からクリーンなイメージを復元することを目的としている。
既存のアプローチは主に、現実世界の劣化過程に自然に存在する時間的連続性を見越して、フレームワイドの劣化変動に焦点を当てている。
Smoothly Evolving Unknown Degradations (SEUD) のシナリオでは、アクティブな劣化セットと劣化強度の両方が時間とともに連続的に変化する。
- 参考スコア(独自算出の注目度): 102.94052335735326
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: All-in-one image restoration aims to recover clean images from diverse unknown degradations using a single model. But extending this task to videos faces unique challenges. Existing approaches primarily focus on frame-wise degradation variation, overlooking the temporal continuity that naturally exists in real-world degradation processes. In practice, degradation types and intensities evolve smoothly over time, and multiple degradations may coexist or transition gradually. In this paper, we introduce the Smoothly Evolving Unknown Degradations (SEUD) scenario, where both the active degradation set and degradation intensity change continuously over time. To support this scenario, we design a flexible synthesis pipeline that generates temporally coherent videos with single, compound, and evolving degradations. To address the challenges in the SEUD scenario, we propose an all-in-One Recurrent Conditional and Adaptive prompting Network (ORCANet). First, a Coarse Intensity Estimation Dehazing (CIED) module estimates haze intensity using physical priors and provides coarse dehazed features as initialization. Second, a Flow Prompt Generation (FPG) module extracts degradation features. FPG generates both static prompts that capture segment-level degradation types and dynamic prompts that adapt to frame-level intensity variations. Furthermore, a label-aware supervision mechanism improves the discriminability of static prompt representations under different degradations. Extensive experiments show that ORCANet achieves superior restoration quality, temporal consistency, and robustness over image and video-based baselines. Code is available at https://github.com/Friskknight/ORCANet-SEUD.
- Abstract(参考訳): All-in-one画像復元は、単一のモデルを用いて、さまざまな未知の劣化からクリーンなイメージを復元することを目的としている。
しかし、このタスクをビデオに拡張することは、ユニークな課題に直面している。
既存のアプローチは主に、現実世界の劣化過程に自然に存在する時間的連続性を見越して、フレームワイドの劣化変動に焦点を当てている。
実際には、劣化タイプと強度は時間とともにスムーズに進化し、複数の劣化は徐々に共存または遷移する。
本稿では,Smoothly Evolving Unknown Degradations (SEUD) シナリオを紹介する。
このシナリオをサポートするために,時間的コヒーレントなビデオを生成するフレキシブルな合成パイプラインを設計する。
SEUDシナリオの課題に対処するため、オールインワン・リカレント・コンディショナル・アダプティブ・プロンプト・ネットワーク(ORCANet)を提案する。
第一に、粗い強度推定脱ハジング(CIED)モジュールは、物理的先行値を用いてヘイズ強度を推定し、粗い脱ハジング特徴を初期化として提供する。
第2に、フロープロンプト生成(FPG)モジュールが劣化特徴を抽出する。
FPGはセグメントレベルの劣化タイプをキャプチャする静的プロンプトと、フレームレベルの強度変化に対応する動的プロンプトの両方を生成する。
さらに,ラベル認識型監視機構により,異なる劣化下での静的なプロンプト表現の識別性が向上する。
大規模な実験により、ORCANetは画像およびビデオベースラインよりも優れた復元品質、時間的一貫性、ロバスト性を実現することが示された。
コードはhttps://github.com/Friskknight/ORCANet-SEUDで入手できる。
関連論文リスト
- Progressive Image Restoration via Text-Conditioned Video Generation [6.1671530509662205]
テキスト・ビデオ・モデルは強い時間的生成能力を示してきたが、画像復元の可能性は未解明のままである。
本研究では,映像の自然な動きではなく,再生軌跡を生成するように微調整することで,進行的な視覚的復元作業にCogVideoを再利用する。
超高分解能、分解性、低照度化のための合成データセットを構築し、各サンプルは劣化したフレームからクリーンなフレームへの段階的な遷移を描いている。
本モデルは,PSNR,SSIM,LPIPSなどの知覚的指標を改善するシーケンスを生成することによって,時間的進行と回復の質を関連付けることを学習する。
論文 参考訳(メタデータ) (2025-12-01T23:37:51Z) - LVTINO: LAtent Video consisTency INverse sOlver for High Definition Video Restoration [3.2944592608677614]
本稿では,VCMで符号化された先行画像を用いた高精細ビデオ再生のための,最初のゼロショット・プラグ・アンド・プレイ逆解器であるLVTINOを提案する。
我々の条件付け機構は、自動微分の必要性を回避し、少数のニューラルファンクション評価で最先端のビデオ再構成品質を達成する。
論文 参考訳(メタデータ) (2025-10-01T18:10:08Z) - WeatherCycle: Unpaired Multi-Weather Restoration via Color Space Decoupled Cycle Learning [30.62082910458533]
マルチウェザー条件下での教師なし画像復元は根本的だが未発見の課題である。
気象の回復を双方向の劣化コンテンツ翻訳サイクルとして再構成する統合フレームワークである textbfWeatherCycle を提案する。
本手法は, 複雑な気象劣化に対する強い一般化を図りながら, 教師なしアプローチの最先端性能を実現する。
論文 参考訳(メタデータ) (2025-09-27T06:44:27Z) - When Color-Space Decoupling Meets Diffusion for Adverse-Weather Image Restoration [31.345996524182127]
我々はLumina-Chroma Decomposition Network(LCDN)とLumina-Guided Diffusion Model(LGDM)を提示する。
LCDNは、YCbCr色空間で劣化した画像を処理し、分解関連輝度と劣化不変色成分を別々に処理する。
LGDMにはTextitDynamic Time Step Lossが組み込まれており、デノナイジングネットワークを最適化し、画像内の低周波と高周波の両方の特徴のバランスの取れた回復を保証する。
論文 参考訳(メタデータ) (2025-09-21T10:39:06Z) - Temporal Inconsistency Guidance for Super-resolution Video Quality Assessment [63.811519474030234]
本稿では,フレームの時間的矛盾を定量化するための知覚指向アプローチを提案する。
人間の視覚システムに触発され,不整合誘導時間モジュールを開発した。
我々の手法は最先端のVQA手法よりも優れています。
論文 参考訳(メタデータ) (2024-12-25T15:43:41Z) - Low-Light Video Enhancement via Spatial-Temporal Consistent Decomposition [52.89441679581216]
低照度ビデオエンハンスメント(LLVE)は、激しい視認性とノイズに悩まされる動的または静的なシーンの復元を目指している。
本稿では、ビューに依存しない、ビューに依存しないコンポーネントを組み込んだ革新的なビデオ分解戦略を提案する。
我々のフレームワークは、既存のメソッドを一貫して上回り、新しいSOTAパフォーマンスを確立します。
論文 参考訳(メタデータ) (2024-05-24T15:56:40Z) - AdaIR: Adaptive All-in-One Image Restoration via Frequency Mining and Modulation [99.57024606542416]
周波数マイニングと変調に基づく適応的なオールインワン画像復元ネットワークを提案する。
我々のアプローチは、異なる周波数サブバンド上の画像内容に異なる劣化タイプが影響を及ぼすという観察によって動機付けられている。
提案モデルでは,入力劣化に応じて情報周波数サブバンドをアクセントすることで適応的再構成を実現する。
論文 参考訳(メタデータ) (2024-03-21T17:58:14Z) - Cross-Consistent Deep Unfolding Network for Adaptive All-In-One Video
Restoration [78.14941737723501]
オールインワンVRのためのクロスコンセントディープ・アンフォールディング・ネットワーク(CDUN)を提案する。
2つのカスケード手順を編成することにより、CDUNは様々な劣化に対する適応的な処理を達成する。
さらに、より隣接するフレームからの情報を活用するために、ウィンドウベースのフレーム間融合戦略を導入する。
論文 参考訳(メタデータ) (2023-09-04T14:18:00Z) - DR2: Diffusion-based Robust Degradation Remover for Blind Face
Restoration [66.01846902242355]
ブラインド顔復元は通常、トレーニングのための事前定義された劣化モデルで劣化した低品質データを合成する。
トレーニングデータに現実のケースをカバーするために、あらゆる種類の劣化を含めることは、高価で実現不可能である。
本稿では、まず、劣化した画像を粗いが劣化不変な予測に変換し、次に、粗い予測を高品質な画像に復元するために拡張モジュールを使用するロバスト劣化再帰法(DR2)を提案する。
論文 参考訳(メタデータ) (2023-03-13T06:05:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。