論文の概要: HaineiFRDM: Explore Diffusion to Restore Defects in Fast-Movement Films
- arxiv url: http://arxiv.org/abs/2512.24946v1
- Date: Wed, 31 Dec 2025 16:18:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.700895
- Title: HaineiFRDM: Explore Diffusion to Restore Defects in Fast-Movement Films
- Title(参考訳): HaineiFRDM:高速移動膜に欠陥を保存するための拡散を探る
- Authors: Rongji Xun, Junjie Yuan, Zhongjie Wang,
- Abstract要約: 既存のオープンソースフィルム復元手法は,商用技術に比べて性能が限られている。
本研究では,拡散モデルの強力なコンテンツ理解能力を探るため,フィルム復元フレームワークHaineiFRDMを提案する。
- 参考スコア(独自算出の注目度): 2.3374825727995328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing open-source film restoration methods show limited performance compared to commercial methods due to training with low-quality synthetic data and employing noisy optical flows. In addition, high-resolution films have not been explored by the open-source methods.We propose HaineiFRDM(Film Restoration Diffusion Model), a film restoration framework, to explore diffusion model's powerful content-understanding ability to help human expert better restore indistinguishable film defects.Specifically, we employ a patch-wise training and testing strategy to make restoring high-resolution films on one 24GB-VRAMR GPU possible and design a position-aware Global Prompt and Frame Fusion Modules.Also, we introduce a global-local frequency module to reconstruct consistent textures among different patches. Besides, we firstly restore a low-resolution result and use it as global residual to mitigate blocky artifacts caused by patching process.Furthermore, we construct a film restoration dataset that contains restored real-degraded films and realistic synthetic data.Comprehensive experimental results conclusively demonstrate the superiority of our model in defect restoration ability over existing open-source methods. Code and the dataset will be released.
- Abstract(参考訳): 既存のオープンソースフィルム修復法では,低品質な合成データを用いたトレーニングやノイズの多い光フローによる商業手法と比較して,性能が低い。
また,高分解能フィルムは,オープンソース手法では検討されていないが,拡散モデルの強力なコンテンツ理解能力を探究するフィルム復元フレームワークであるHaineiFRDM(Film Restoration Diffusion Model)を提案する。特に,24GB-VRAMR GPU上で高分解能フィルムを復元し,位置認識のグローバルプロンプトとフレームフュージョンモジュールを設計するためのパッチワイドトレーニングとテスト戦略を採用し,各パッチ間の一貫したテクスチャを再構築するためのグローバル・ローカル・周波数モジュールを提案する。
さらに,我々は,まず低解像度な結果を復元し,パッチ処理によって生じるブロック状アーティファクトを緩和するためのグローバルな残留物として利用し,また,復元された実劣化フィルムとリアルな合成データを含むフィルム復元データセットを構築した。
コードとデータセットがリリースされる。
関連論文リスト
- MoA-VR: A Mixture-of-Agents System Towards All-in-One Video Restoration [62.929029990341796]
実世界のビデオは、ノイズ、圧縮アーティファクト、低照度歪みなどの複雑な劣化に悩まされることが多い。
3つの協調エージェントによる人間のプロの推論・処理手順を模倣したMoA-VRを提案する。
具体的には、大規模かつ高解像度なビデオ劣化認識ベンチマークを構築し、視覚言語モデル(VLM)による劣化識別子を構築する。
論文 参考訳(メタデータ) (2025-10-09T17:42:51Z) - Temporal-Consistent Video Restoration with Pre-trained Diffusion Models [51.47188802535954]
ビデオ復元(VR)は、劣化したビデオから高品質なビデオを復元することを目的としている。
事前訓練拡散モデル(DM)を用いた最近のゼロショットVR法は,逆拡散時の近似誤差と時間的整合性の欠如に悩まされている。
本稿では,DMのシード空間におけるビデオフレームを直接パラメータ化し,近似誤差を排除した新しいMAP(Posterior Maximum)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T03:41:56Z) - Diff-Restorer: Unleashing Visual Prompts for Diffusion-based Universal Image Restoration [19.87693298262894]
拡散モデルに基づく普遍的な画像復元手法であるDiff-Restorerを提案する。
我々は、事前学習された視覚言語モデルを用いて、劣化した画像から視覚的プロンプトを抽出する。
また、デグレーション対応デコーダを設計し、構造的補正を行い、潜在コードをピクセル領域に変換する。
論文 参考訳(メタデータ) (2024-07-04T05:01:10Z) - DiffIR2VR-Zero: Zero-Shot Video Restoration with Diffusion-based Image Restoration Models [9.145545884814327]
DiffIR2VR-Zeroは、任意の事前訓練された画像復元モデルで、追加のトレーニングなしで高品質な映像復元を行うことができるゼロショットフレームワークである。
我々のフレームワークは、任意の画像復元拡散モデルで動作し、タスク固有のトレーニングや修正なしに、映像強調のための汎用的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-07-01T17:59:12Z) - DR2: Diffusion-based Robust Degradation Remover for Blind Face
Restoration [66.01846902242355]
ブラインド顔復元は通常、トレーニングのための事前定義された劣化モデルで劣化した低品質データを合成する。
トレーニングデータに現実のケースをカバーするために、あらゆる種類の劣化を含めることは、高価で実現不可能である。
本稿では、まず、劣化した画像を粗いが劣化不変な予測に変換し、次に、粗い予測を高品質な画像に復元するために拡張モジュールを使用するロバスト劣化再帰法(DR2)を提案する。
論文 参考訳(メタデータ) (2023-03-13T06:05:18Z) - Bringing Old Films Back to Life [33.78936333249432]
本稿では,過度に劣化した古いフィルムを復元するために,RTN(Recurrent Transformer Network)という学習ベースのフレームワークを提案する。
本手法は,隠蔽に関する豊富な情報を含む隣接フレームから学習した隠れ知識に基づいている。
論文 参考訳(メタデータ) (2022-03-31T17:59:59Z) - Investigating Tradeoffs in Real-World Video Super-Resolution [90.81396836308085]
実世界のビデオ超解像(VSR)モデルは、一般化性を改善するために様々な劣化で訓練されることが多い。
最初のトレードオフを軽減するために,性能を犠牲にすることなく,最大40%のトレーニング時間を削減できる劣化手法を提案する。
そこで本研究では,多種多様な実世界の低品質映像系列を含むビデオLQデータセットを提案する。
論文 参考訳(メタデータ) (2021-11-24T18:58:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。