論文の概要: Semantic-Aware Latent Space Exploration for Face Image Restoration
- arxiv url: http://arxiv.org/abs/2203.03005v1
- Date: Sun, 6 Mar 2022 16:52:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 05:37:28.576616
- Title: Semantic-Aware Latent Space Exploration for Face Image Restoration
- Title(参考訳): 顔画像復元のための意味認識型潜時空間探索
- Authors: Yanhui Guo, Fangzhou Luo and Xiaolin Wu
- Abstract要約: 画像復元のための意味認識型潜時空間探索法を提案する。
参照セマンティクス情報を明示的にモデル化することで、SAIRは深刻な劣化したイメージを継続的に復元することができる。
- 参考スコア(独自算出の注目度): 17.199023009789308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For image restoration, most existing deep learning based methods tend to
overfit the training data leading to bad results when encountering unseen
degradations out of the assumptions for training. To improve the robustness,
generative adversarial network (GAN) prior based methods have been proposed,
revealing a promising capability to restore photo-realistic and high-quality
results. But these methods suffer from semantic confusion, especially on
semantically significant images such as face images. In this paper, we propose
a semantic-aware latent space exploration method for image restoration (SAIR).
By explicitly modeling referenced semantics information, SAIR can consistently
restore severely degraded images not only to high-resolution highly-realistic
looks but also to correct semantics. Quantitative and qualitative experiments
collectively demonstrate the effectiveness of the proposed SAIR. Our code can
be found in https://github.com/Liamkuo/SAIR.
- Abstract(参考訳): 画像復元では、既存のディープラーニングベースの手法はトレーニングデータに過度に適合する傾向にあり、トレーニングの前提から外れた劣化に遭遇すると、悪い結果につながる。
強靭性を改善するため、GAN(Generative Adversarial Network)の先行手法が提案され、フォトリアリスティックおよび高品質な結果を復元する有望な能力が明らかにされた。
しかしこれらの手法は、特に顔画像のような意味的に重要な画像において、意味的混乱に悩まされる。
本稿では,画像復元のための意味認識型潜在空間探索手法(sair)を提案する。
参照セマンティクス情報を明示的にモデル化することで、SAIRは高精細な高現実的な外観だけでなく、セマンティクスの正しさも保たせる。
定量的および定性的な実験は、提案したSAIRの有効性を総合的に示す。
私たちのコードはhttps://github.com/Liamkuo/SAIR.orgにある。
関連論文リスト
- One-step Generative Diffusion for Realistic Extreme Image Rescaling [47.89362819768323]
極端画像再スケーリングのためのワンステップイメージ再スケーリング拡散(OSIRDiff)と呼ばれる新しいフレームワークを提案する。
OSIRDiffは、事前訓練されたオートエンコーダの潜在空間で再スケーリング操作を実行する。
これは、事前訓練されたテキスト・ツー・イメージ拡散モデルによって学習された強力な自然画像の先行を効果的に活用する。
論文 参考訳(メタデータ) (2024-08-17T09:51:42Z) - Diff-Restorer: Unleashing Visual Prompts for Diffusion-based Universal Image Restoration [19.87693298262894]
拡散モデルに基づく普遍的な画像復元手法であるDiff-Restorerを提案する。
我々は、事前学習された視覚言語モデルを用いて、劣化した画像から視覚的プロンプトを抽出する。
また、デグレーション対応デコーダを設計し、構造的補正を行い、潜在コードをピクセル領域に変換する。
論文 参考訳(メタデータ) (2024-07-04T05:01:10Z) - CoSeR: Bridging Image and Language for Cognitive Super-Resolution [74.24752388179992]
本稿では,低解像度画像の理解能力を備えたSRモデルを実現するCoSeR(Cognitive Super-Resolution)フレームワークを提案する。
画像の外観と言語理解を組み合わせることで、認知的な埋め込みを生成する。
画像の忠実度をさらに向上させるため、「オール・イン・アテンション」と呼ばれる新しい条件注入方式を提案する。
論文 参考訳(メタデータ) (2023-11-27T16:33:29Z) - LTT-GAN: Looking Through Turbulence by Inverting GANs [86.25869403782957]
本稿では,よく訓練されたGANによってカプセル化された視覚的事前情報を利用した最初の乱流緩和手法を提案する。
視覚的先行性に基づき、周期的な文脈距離で復元された画像の同一性を維持することを学ぶことを提案する。
本手法は, 回復した結果の視覚的品質と顔認証精度の両方において, 先行技術よりも優れていた。
論文 参考訳(メタデータ) (2021-12-04T16:42:13Z) - Learning Conditional Knowledge Distillation for Degraded-Reference Image
Quality Assessment [157.1292674649519]
劣化参照IQA(DR-IQA)という実用的な解を提案する。
DR-IQAはIRモデルの入力、劣化したイメージを参照として利用する。
私たちの結果は、フル参照設定のパフォーマンスに近いものもあります。
論文 参考訳(メタデータ) (2021-08-18T02:35:08Z) - Perceptual Image Restoration with High-Quality Priori and Degradation
Learning [28.93489249639681]
本モデルは,復元画像と劣化画像の類似度を測定するのに有効であることを示す。
同時修復・拡張フレームワークは,実世界の複雑な分解型によく一般化する。
論文 参考訳(メタデータ) (2021-03-04T13:19:50Z) - Blind Face Restoration via Deep Multi-scale Component Dictionaries [75.02640809505277]
劣化した観測の復元過程をガイドするディープフェイス辞書ネットワーク(DFDNet)を提案する。
DFDNetは高品質な画像から知覚的に重要な顔成分のディープ辞書を生成する。
コンポーネントAdaINは、入力機能と辞書機能の間のスタイルの多様性を取り除くために利用される。
論文 参考訳(メタデータ) (2020-08-02T07:02:07Z) - Exploiting Deep Generative Prior for Versatile Image Restoration and
Manipulation [181.08127307338654]
本研究は, 大規模自然画像に基づいて学習したGAN(Generative Adversarial Network)により, 得られた画像の有効利用方法を示す。
深層生成前駆体(DGP)は、色、パッチ、解像度、様々な劣化した画像の欠落したセマンティクスを復元するための説得力のある結果を提供する。
論文 参考訳(メタデータ) (2020-03-30T17:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。