論文の概要: FideDiff: Efficient Diffusion Model for High-Fidelity Image Motion Deblurring
- arxiv url: http://arxiv.org/abs/2510.01641v1
- Date: Thu, 02 Oct 2025 03:44:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.976137
- Title: FideDiff: Efficient Diffusion Model for High-Fidelity Image Motion Deblurring
- Title(参考訳): FideDiff:高忠実度画像運動劣化のための効率的な拡散モデル
- Authors: Xiaoyang Liu, Zhengyan Zhou, Zihang Xu, Jiezhang Cao, Zheng Chen, Yulun Zhang,
- Abstract要約: FideDiffは、高忠実度デブロアリング用に設計された新しい単一ステップ拡散モデルである。
我々は、各タイムステップが徐々にぼやけた画像を表す拡散のようなプロセスとして、動きのデブロアリングを再構成する。
一致したぼやけた軌跡でトレーニングデータを再構成することにより、モデルは時間的一貫性を学習し、正確なワンステップのデブロワーを可能にする。
- 参考スコア(独自算出の注目度): 33.809728459395785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in image motion deblurring, driven by CNNs and transformers, have made significant progress. Large-scale pre-trained diffusion models, which are rich in true-world modeling, have shown great promise for high-quality image restoration tasks such as deblurring, demonstrating stronger generative capabilities than CNN and transformer-based methods. However, challenges such as unbearable inference time and compromised fidelity still limit the full potential of the diffusion models. To address this, we introduce FideDiff, a novel single-step diffusion model designed for high-fidelity deblurring. We reformulate motion deblurring as a diffusion-like process where each timestep represents a progressively blurred image, and we train a consistency model that aligns all timesteps to the same clean image. By reconstructing training data with matched blur trajectories, the model learns temporal consistency, enabling accurate one-step deblurring. We further enhance model performance by integrating Kernel ControlNet for blur kernel estimation and introducing adaptive timestep prediction. Our model achieves superior performance on full-reference metrics, surpassing previous diffusion-based methods and matching the performance of other state-of-the-art models. FideDiff offers a new direction for applying pre-trained diffusion models to high-fidelity image restoration tasks, establishing a robust baseline for further advancing diffusion models in real-world industrial applications. Our dataset and code will be available at https://github.com/xyLiu339/FideDiff.
- Abstract(参考訳): CNNと変圧器によって駆動される画像運動の劣化は,近年大きく進展している。
実世界のモデリングに富む大規模事前学習拡散モデルでは、デブロアリングのような高品質な画像復元タスクがCNNやトランスフォーマーベースの手法よりも強力な生成能力を証明している。
しかし、許容できない推論時間や妥協された忠実さといった課題は、拡散モデルの完全なポテンシャルを制限している。
そこで本研究では,高忠実度デブロアリング用に設計された新しい単一ステップ拡散モデルであるFideDiffを紹介する。
我々は、各タイムステップが徐々にぼやけた画像を表す拡散様のプロセスとして、動きの遅延を再現し、すべてのタイムステップを同じクリーンな画像に整合させる一貫性モデルを訓練する。
一致したぼやけた軌跡でトレーニングデータを再構築することにより、モデルは時間的一貫性を学習し、正確なワンステップのデブロワーを可能にする。
我々は、カーネル推定のためのカーネル制御ネットを統合し、適応時間ステップ予測を導入することにより、モデル性能をさらに向上する。
提案手法は,従来の拡散法を超越し,他の最先端モデルの性能に適合する。
FideDiffは、高忠実度画像復元タスクに事前訓練された拡散モデルを適用するための新しい方向を提供し、現実の産業アプリケーションにおける拡散モデルをさらに進化させるための堅牢なベースラインを確立する。
データセットとコードはhttps://github.com/xyLiu339/FideDiff.comで公開されます。
関連論文リスト
- One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - One Diffusion Step to Real-World Super-Resolution via Flow Trajectory Distillation [60.54811860967658]
FluxSRはフローマッチングモデルに基づく新しい一段階拡散リアルISRである。
まず,フロートラジェクトリ蒸留(FTD)を導入し,多段階のフローマッチングモデルを1段階のリアルISRに蒸留する。
第2に、画像リアリズムを改善し、生成画像の高周波アーティファクト問題に対処するために、テレビLPIPSを知覚的損失として提案する。
論文 参考訳(メタデータ) (2025-02-04T04:11:29Z) - ACDiT: Interpolating Autoregressive Conditional Modeling and Diffusion Transformer [95.80384464922147]
ACDiTはブロックワイド条件拡散変換器である。
トークン単位の自己回帰とフルシーケンス拡散のフレキシブルな関係を提供する。
本稿では,映像生成タスクにおける自己回帰ベースラインの中で,ACDiTが最良であることを示す。
論文 参考訳(メタデータ) (2024-12-10T18:13:20Z) - Energy-Based Diffusion Language Models for Text Generation [126.23425882687195]
エネルギーベース拡散言語モデル(Energy-based Diffusion Language Model, EDLM)は、拡散ステップごとに全シーケンスレベルで動作するエネルギーベースモデルである。
我々のフレームワークは、既存の拡散モデルよりも1.3$times$のサンプリングスピードアップを提供する。
論文 参考訳(メタデータ) (2024-10-28T17:25:56Z) - Sequential Posterior Sampling with Diffusion Models [15.028061496012924]
条件付き画像合成における逐次拡散後サンプリングの効率を向上させるため,遷移力学をモデル化する新しい手法を提案する。
本研究では,高フレームレート心エコー画像の現実的データセットに対するアプローチの有効性を実証する。
提案手法は,画像の拡散モデルとリアルタイム推論を必要とする他の領域における拡散モデルのリアルタイム適用の可能性を開く。
論文 参考訳(メタデータ) (2024-09-09T07:55:59Z) - Self-Play Fine-Tuning of Diffusion Models for Text-to-Image Generation [59.184980778643464]
ファインチューニング拡散モデル : 生成人工知能(GenAI)の最前線
本稿では,拡散モデル(SPIN-Diffusion)のための自己演奏ファインチューニングという革新的な手法を紹介する。
提案手法は従来の教師付き微調整とRL戦略の代替として,モデル性能とアライメントの両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-15T18:59:18Z) - AdaDiff: Accelerating Diffusion Models through Step-Wise Adaptive Computation [32.74923906921339]
拡散モデルは多彩で高忠実な画像を生成する上で大きな成功を収めるが、それらの応用は本質的に遅い生成速度によって妨げられる。
本稿では,拡散モデルの生成効率を向上させるために,各サンプリングステップで動的に計算資源を割り当てる適応フレームワークであるAdaDiffを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。