論文の概要: Semantic-Guided Diffusion Model for Single-Step Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2505.07071v1
- Date: Sun, 11 May 2025 17:45:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.195556
- Title: Semantic-Guided Diffusion Model for Single-Step Image Super-Resolution
- Title(参考訳): 単段画像超解像に対する意味誘導拡散モデル
- Authors: Zihang Liu, Zhenyu Zhang, Hao Tang,
- Abstract要約: 拡散型画像超解像法 (SR) は顕著な性能を示した。
最近の進歩は15段階から1段階まで推論を減少させる決定論的サンプリングプロセスを導入している。
本稿では,セマンティックセグメンテーションマスクをサンプリングプロセスに組み込んだ意味誘導拡散フレームワークSAMSRを提案する。
- 参考スコア(独自算出の注目度): 13.187007344274662
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion-based image super-resolution (SR) methods have demonstrated remarkable performance. Recent advancements have introduced deterministic sampling processes that reduce inference from 15 iterative steps to a single step, thereby significantly improving the inference speed of existing diffusion models. However, their efficiency remains limited when handling complex semantic regions due to the single-step inference. To address this limitation, we propose SAMSR, a semantic-guided diffusion framework that incorporates semantic segmentation masks into the sampling process. Specifically, we introduce the SAM-Noise Module, which refines Gaussian noise using segmentation masks to preserve spatial and semantic features. Furthermore, we develop a pixel-wise sampling strategy that dynamically adjusts the residual transfer rate and noise strength based on pixel-level semantic weights, prioritizing semantically rich regions during the diffusion process. To enhance model training, we also propose a semantic consistency loss, which aligns pixel-wise semantic weights between predictions and ground truth. Extensive experiments on both real-world and synthetic datasets demonstrate that SAMSR significantly improves perceptual quality and detail recovery, particularly in semantically complex images. Our code is released at https://github.com/Liu-Zihang/SAMSR.
- Abstract(参考訳): 拡散型画像超解像法 (SR) は顕著な性能を示した。
近年,15段階から1段階への推論を削減し,既存の拡散モデルの推論速度を大幅に向上させる決定論的サンプリングプロセスが導入されている。
しかし、その効率はシングルステップ推論のために複雑な意味領域を扱う場合に制限される。
この制限に対処するために,セマンティックセグメンテーションマスクをサンプリングプロセスに組み込んだ意味誘導拡散フレームワークSAMSRを提案する。
具体的には,空間的特徴と意味的特徴を保存するためにセグメンテーションマスクを用いてガウス雑音を改良するSAM-Noiseモジュールを提案する。
さらに,拡散過程において,画素レベルのセマンティックウェイトに基づいて残差伝達率と雑音強度を動的に調整し,セマンティックリッチな領域を優先順位付けする画素ワイズサンプリング戦略を開発した。
モデルトレーニングを強化するために,予測と基底真理の間に画素単位のセマンティックウェイトを整合させるセマンティック一貫性損失を提案する。
実世界のデータセットと合成データセットの両方に対する大規模な実験は、SAMSRが特に意味論的に複雑な画像において知覚品質と詳細回復を著しく改善することを示した。
私たちのコードはhttps://github.com/Liu-Zihang/SAMSR.comで公開されています。
関連論文リスト
- CAM-Seg: A Continuous-valued Embedding Approach for Semantic Image Generation [11.170848285659572]
量子化埋め込みを用いたセグメンテーションマスクのオートエンコーダ精度は連続数値埋め込みよりも8%低い。
セマンティックセグメンテーションのための連続評価組込みフレームワークを提案する。
提案手法では,細粒度のセマンティックな詳細を保存しながら,離散的な潜在表現の必要性を排除している。
論文 参考訳(メタデータ) (2025-03-19T18:06:54Z) - HoliSDiP: Image Super-Resolution via Holistic Semantics and Diffusion Prior [62.04939047885834]
本稿では,意味的セグメンテーションを活用するフレームワークであるHoliSDiPについて述べる。
本手法では, セグメンテーションマスクと空間CLIPマップを用いて, セグメンテーションガイダンスを導入しながら, セグメンテーションラベルを簡潔なテキストプロンプトとして利用する。
論文 参考訳(メタデータ) (2024-11-27T15:22:44Z) - SAM-DiffSR: Structure-Modulated Diffusion Model for Image Super-Resolution [46.85622647257876]
本稿では,SAM-DiffSRモデルを提案する。このモデルでは,ノイズをサンプリングする過程において,SAMからの微細な構造情報を利用することで,推論時に追加の計算コストを伴わずに画像品質を向上させることができる。
DIV2Kデータセット上でPSNRの最大値で既存の拡散法を0.74dB以上越えることにより,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-27T01:57:02Z) - ResShift: Efficient Diffusion Model for Image Super-resolution by
Residual Shifting [70.83632337581034]
拡散に基づく画像超解像法(SR)は主に低推論速度によって制限される。
本稿では,SRの拡散段数を大幅に削減する新しい,効率的な拡散モデルを提案する。
本手法は,残差をシフトすることで高分解能画像と低分解能画像の間を移動させるマルコフ連鎖を構成する。
論文 参考訳(メタデータ) (2023-07-23T15:10:02Z) - Semantic Image Synthesis via Diffusion Models [174.24523061460704]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に事実上のGANベースのアプローチに従っている。
意味画像合成のためのDDPMに基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。