論文の概要: Beyond the Ground Truth: Enhanced Supervision for Image Restoration
- arxiv url: http://arxiv.org/abs/2512.03932v1
- Date: Wed, 03 Dec 2025 16:30:32 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:02:44.224554
- Title: Beyond the Ground Truth: Enhanced Supervision for Image Restoration
- Title(参考訳): 地上の真実を超えて:画像復元のための強化されたスーパービジョン
- Authors: Donghun Ryou, Inju Ha, Sanghyeok Chu, Bohyung Han,
- Abstract要約: 本稿では,現実の修復のための高品質な監視を実現するために,既存の真実画像を強化する新しい枠組みを提案する。
本フレームワークは,適応周波数マスクを組み込んだ超解像を用いて,知覚的に強化された地中真理画像を生成する。
改良された基底真理画像は、既存の復元モデルとシームレスに統合可能な軽量出力改善ネットワークのトレーニングに使用される。
- 参考スコア(独自算出の注目度): 34.09421585138677
- License:
- Abstract: Deep learning-based image restoration has achieved significant success. However, when addressing real-world degradations, model performance is limited by the quality of ground-truth images in datasets due to practical constraints in data acquisition. To address this limitation, we propose a novel framework that enhances existing ground truth images to provide higher-quality supervision for real-world restoration. Our framework generates perceptually enhanced ground truth images using super-resolution by incorporating adaptive frequency masks, which are learned by a conditional frequency mask generator. These masks guide the optimal fusion of frequency components from the original ground truth and its super-resolved variants, yielding enhanced ground truth images. This frequency-domain mixup preserves the semantic consistency of the original content while selectively enriching perceptual details, preventing hallucinated artifacts that could compromise fidelity. The enhanced ground truth images are used to train a lightweight output refinement network that can be seamlessly integrated with existing restoration models. Extensive experiments demonstrate that our approach consistently improves the quality of restored images. We further validate the effectiveness of both supervision enhancement and output refinement through user studies. Code is available at https://github.com/dhryougit/Beyond-the-Ground-Truth.
- Abstract(参考訳): 深層学習に基づく画像復元は大きな成功を収めた。
しかし, 実世界の劣化に対処する場合, データ取得における現実的な制約により, データセットの地中真実像の品質によって, モデル性能は制限される。
この制限に対処するため,現実の修復のための高品質な監視を行うために,既存の真実画像を強化する新しい枠組みを提案する。
このフレームワークは,適応周波数マスクを組み込んだ超高分解能な地中真理画像を生成し,条件付き周波数マスク生成装置で学習する。
これらのマスクは、元の基底真理とその超解像から周波数成分の最適融合を導出し、改良された基底真理画像を生成する。
この周波数領域の混合は、知覚の詳細を選択的に濃縮しながら、元の内容のセマンティックな一貫性を保ち、忠実さを損なう可能性のある幻覚的アーティファクトを予防する。
改良された基底真理画像は、既存の復元モデルとシームレスに統合可能な軽量出力改善ネットワークのトレーニングに使用される。
広範にわたる実験により,本手法は画像の復元品質を継続的に改善することを示した。
さらに,ユーザ・スタディを通じて,インスペクティブ・エンハンスメントとアウトプット・リファインメントの両面での有効性を検証した。
コードはhttps://github.com/dhryougit/Beyond-the-Ground-Truthで公開されている。
関連論文リスト
- OmniRefiner: Reinforcement-Guided Local Diffusion Refinement [10.329465965964571]
VAEベースの潜伏圧縮は微妙なテクスチャ情報を破棄し、アイデンティティと属性固有の手がかりが消滅する。
参照駆動補正の2段階を連続的に行う細部対応精細化フレームワークである ourMthd を紹介した。
実験により,我々のMthdは参照アライメントと細かなディテール保存を著しく改善することが示された。
論文 参考訳(メタデータ) (2025-11-25T06:57:49Z) - A Generative Data Framework with Authentic Supervision for Underwater Image Restoration and Enhancement [51.382274157144714]
我々は、未ペア画像から画像への変換に基づく生成データフレームワークを開発する。
このフレームワークは、正確な地上構造ラベルを持つ合成データセットを構成する。
実験により、我々の合成データに基づいてトレーニングされたモデルが、既存のベンチマークでトレーニングされたモデルに匹敵する、あるいは優れた色復元と一般化性能が得られることが示された。
論文 参考訳(メタデータ) (2025-11-18T14:20:17Z) - LAFR: Efficient Diffusion-based Blind Face Restoration via Latent Codebook Alignment Adapter [52.93785843453579]
低品質(LQ)画像からのブラインド顔復元は、高忠実度画像再構成と顔認証の保存を必要とする課題である。
LAFRは,LQ画像の潜時分布とHQ画像の潜時分布を一致させる,新しいコードブックベースの潜時空間アダプタである。
FFHQデータセットのわずか0.9%での拡散の軽量な微調整は、最先端の手法に匹敵する結果を得るのに十分であることを示す。
論文 参考訳(メタデータ) (2025-05-29T14:11:16Z) - Leveraging Diffusion Knowledge for Generative Image Compression with Fractal Frequency-Aware Band Learning [16.077768397480902]
生成的画像圧縮アプローチは、シャープな再構築ではなく、詳細で現実的な画像を生成する。
拡散知識を取り入れた新しい深層学習に基づく画像圧縮手法を提案する。
提案手法は, 従来よりも低歪みで, 高いリアリズム, より優れたリアリズムの歪みを実現する。
論文 参考訳(メタデータ) (2025-03-14T11:41:33Z) - Enhancing Image Matting in Real-World Scenes with Mask-Guided Iterative Refinement [4.006320049969407]
Mask2Alphaは、画像マッチングにおけるセマンティック理解、インスタンス認識、詳細回復を強化するために設計された反復的な改善フレームワークである。
本フレームワークでは,自己教師型視覚変換機能をセマンティックプリエントとして活用し,複雑なシナリオにおけるコンテキスト理解を強化する。
Mask2Alphaは、常に最先端の結果を達成し、正確かつ効率的な画像マッチングにおけるその有効性を示している。
論文 参考訳(メタデータ) (2025-02-24T12:16:28Z) - ReFIR: Grounding Large Restoration Models with Retrieval Augmentation [52.00990126884406]
本稿では,Retrieval-augmented Framework for Image Restoration (ReFIR) というソリューションを提案する。
我々のReFIRは、抽出した画像を外部知識として組み込んで、既存のLRMの知識境界を拡張する。
実験により,ReFIRは高忠実度だけでなく,現実的な復元結果も得られることが示された。
論文 参考訳(メタデータ) (2024-10-08T01:27:45Z) - Diff-Restorer: Unleashing Visual Prompts for Diffusion-based Universal Image Restoration [19.87693298262894]
拡散モデルに基づく普遍的な画像復元手法であるDiff-Restorerを提案する。
我々は、事前学習された視覚言語モデルを用いて、劣化した画像から視覚的プロンプトを抽出する。
また、デグレーション対応デコーダを設計し、構造的補正を行い、潜在コードをピクセル領域に変換する。
論文 参考訳(メタデータ) (2024-07-04T05:01:10Z) - Self-Adaptive Reality-Guided Diffusion for Artifact-Free Super-Resolution [47.29558685384506]
アーティファクトフリー・スーパーレゾリューション(SR)は、低解像度画像を、オリジナルコンテンツの厳密な整合性のある高解像度画像に変換することを目的としている。
従来の拡散型SR技術は反復的な手順でアーティファクトを導入する傾向にある。
本稿では,自己適応型現実誘導拡散(Self-Adaptive Reality-Guided Diffusion)を提案する。
論文 参考訳(メタデータ) (2024-03-25T11:29:19Z) - ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - Frequency Consistent Adaptation for Real World Super Resolution [64.91914552787668]
実シーンにスーパーリゾリューション(SR)法を適用する際に周波数領域の整合性を保証する新しい周波数一貫性適応(FCA)を提案する。
監視されていない画像から劣化カーネルを推定し、対応するLow-Resolution (LR)画像を生成する。
ドメイン一貫性のあるLR-HRペアに基づいて、容易に実装可能な畳み込みニューラルネットワーク(CNN)SRモデルを訓練する。
論文 参考訳(メタデータ) (2020-12-18T08:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。