論文の概要: Self-Adaptive Reality-Guided Diffusion for Artifact-Free Super-Resolution
- arxiv url: http://arxiv.org/abs/2403.16643v1
- Date: Mon, 25 Mar 2024 11:29:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 15:08:28.622784
- Title: Self-Adaptive Reality-Guided Diffusion for Artifact-Free Super-Resolution
- Title(参考訳): アーチファクトフリー超解像のための自己適応型現実誘導拡散
- Authors: Qingping Zheng, Ling Zheng, Yuanfan Guo, Ying Li, Songcen Xu, Jiankang Deng, Hang Xu,
- Abstract要約: アーティファクトフリー・スーパーレゾリューション(SR)は、低解像度画像を、オリジナルコンテンツの厳密な整合性のある高解像度画像に変換することを目的としている。
従来の拡散型SR技術は反復的な手順でアーティファクトを導入する傾向にある。
本稿では,自己適応型現実誘導拡散(Self-Adaptive Reality-Guided Diffusion)を提案する。
- 参考スコア(独自算出の注目度): 47.29558685384506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artifact-free super-resolution (SR) aims to translate low-resolution images into their high-resolution counterparts with a strict integrity of the original content, eliminating any distortions or synthetic details. While traditional diffusion-based SR techniques have demonstrated remarkable abilities to enhance image detail, they are prone to artifact introduction during iterative procedures. Such artifacts, ranging from trivial noise to unauthentic textures, deviate from the true structure of the source image, thus challenging the integrity of the super-resolution process. In this work, we propose Self-Adaptive Reality-Guided Diffusion (SARGD), a training-free method that delves into the latent space to effectively identify and mitigate the propagation of artifacts. Our SARGD begins by using an artifact detector to identify implausible pixels, creating a binary mask that highlights artifacts. Following this, the Reality Guidance Refinement (RGR) process refines artifacts by integrating this mask with realistic latent representations, improving alignment with the original image. Nonetheless, initial realistic-latent representations from lower-quality images result in over-smoothing in the final output. To address this, we introduce a Self-Adaptive Guidance (SAG) mechanism. It dynamically computes a reality score, enhancing the sharpness of the realistic latent. These alternating mechanisms collectively achieve artifact-free super-resolution. Extensive experiments demonstrate the superiority of our method, delivering detailed artifact-free high-resolution images while reducing sampling steps by 2X. We release our code at https://github.com/ProAirVerse/Self-Adaptive-Guidance-Diffusion.git.
- Abstract(参考訳): アーティファクトフリー・スーパーレゾリューション(SR)は、低解像度画像を元の内容の厳密な整合性のある高解像度画像に変換することを目的としており、歪みや合成の詳細を排除している。
従来の拡散型SR技術は、画像の細部を拡大する顕著な能力を示してきたが、反復的な手順でアーティファクトを導入する傾向にある。
このようなアーティファクトは、自明なノイズから不正確なテクスチャまで、原画像の真の構造から逸脱し、超解像過程の完全性に挑戦する。
本研究では,自己適応型現実誘導拡散法(SARGD)を提案する。
我々のSARGDは、アーティファクト検出器を使って不明瞭なピクセルを識別し、アーティファクトをハイライトするバイナリマスクを作成することから始まります。
これに続いて、Real Guidance Refinement (RGR)プロセスは、このマスクを現実的な潜在表現と統合することにより、アーティファクトを洗練し、元のイメージとの整合性を改善する。
それでも、低画質画像からの初期のリアルなラテント表現は、最終的な出力で過度に滑らかになる。
そこで我々は,自己適応誘導(SAG)機構を導入する。
現実のスコアを動的に計算し、現実の潜伏者のシャープさを高める。
これらの交互機構は、集合的にアーティファクトフリーの超解像を達成する。
広範囲にわたる実験により,本手法の優位性を実証し,詳細なアーティファクトフリー高解像度画像を提供するとともに,サンプリング工程を2倍に削減した。
コードをhttps://github.com/ProAirVerse/Self-Adaptive-Guidance-Diffusion.gitでリリースします。
関連論文リスト
- One-step Generative Diffusion for Realistic Extreme Image Rescaling [47.89362819768323]
極端画像再スケーリングのためのワンステップイメージ再スケーリング拡散(OSIRDiff)と呼ばれる新しいフレームワークを提案する。
OSIRDiffは、事前訓練されたオートエンコーダの潜在空間で再スケーリング操作を実行する。
これは、事前訓練されたテキスト・ツー・イメージ拡散モデルによって学習された強力な自然画像の先行を効果的に活用する。
論文 参考訳(メタデータ) (2024-08-17T09:51:42Z) - SSL: A Self-similarity Loss for Improving Generative Image Super-resolution [11.94842557256442]
生成逆数ネットワーク(GAN)と生成拡散モデル(DM)は、実世界の画像超解像(Real-ISR)で広く利用されている。
これらの生成モデルは、視覚的アーティファクトや偽画像構造を生成する傾向があり、不自然なリアルISRの結果をもたらす。
本稿では, 生成実ISRモデルの性能向上のために, 単純かつ効果的な自己相似性損失(SSL)を提案する。
論文 参考訳(メタデータ) (2024-08-11T07:46:06Z) - One-Step Effective Diffusion Network for Real-World Image Super-Resolution [11.326598938246558]
本稿では,Real-ISR問題に対する1ステップの効果的な拡散ネットワーク,すなわちOSEDiffを提案する。
トレーニング可能な層で事前学習した拡散ネットワークを微調整し、複雑な画像劣化に適応する。
我々のOSEDiffモデルは1つの拡散ステップでHQイメージを効率よく効果的に生成できる。
論文 参考訳(メタデータ) (2024-06-12T13:10:31Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - Realistic Restorer: artifact-free flow restorer(AF2R) for MRI motion
artifact removal [3.8103327351507255]
運動アーティファクトは画像品質を著しく劣化させ、検査効率を低下させ、正確な診断を困難にする。
それまでの手法は、アーティファクト修正のための暗黙のモデルに頼っていたため、アーティファクト形成機構をモデル化する際のバイアスが生じた。
画像領域のアーティファクトと解剖学的内容の関係を再構築するために、アーティファクト生成機構を組み込んだ。
論文 参考訳(メタデータ) (2023-06-19T04:02:01Z) - NeRFInvertor: High Fidelity NeRF-GAN Inversion for Single-shot Real
Image Animation [66.0838349951456]
Nerfベースの生成モデルは、一貫した3次元幾何で高品質な画像を生成する能力を示している。
本研究では,このNeRF-GANモデルを外科的に微調整し,実物体の高忠実度アニメーションを単一画像のみで実現するための普遍的手法を提案する。
論文 参考訳(メタデータ) (2022-11-30T18:36:45Z) - Identifying Invariant Texture Violation for Robust Deepfake Detection [17.306386179823576]
Invariant Texture Learning frameworkは,低画質で公開されたデータセットにのみアクセスすることができる。
本手法は, 被写体から転写したテクスチャによって, 被写体表面の微視的顔のテクスチャが必然的に侵害されることを前提とした。
論文 参考訳(メタデータ) (2020-12-19T03:02:15Z) - Deep CG2Real: Synthetic-to-Real Translation via Image Disentanglement [78.58603635621591]
画像空間における未ペアの合成-現実翻訳ネットワークの訓練は、厳しい制約下にある。
画像の非交叉シェーディング層とアルベド層に作用する半教師付きアプローチを提案する。
私たちの2段階のパイプラインはまず、物理ベースのレンダリングをターゲットとして、教師付き方法で正確なシェーディングを予測することを学習します。
論文 参考訳(メタデータ) (2020-03-27T21:45:41Z) - PULSE: Self-Supervised Photo Upsampling via Latent Space Exploration of
Generative Models [77.32079593577821]
PULSE (Photo Upsampling via Latent Space Exploration) は、それまで文献になかった解像度で高解像度でリアルな画像を生成する。
本手法は, 従来よりも高分解能, スケールファクターの知覚品質において, 最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-08T16:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。