論文の概要: Blind Face Restoration via Deep Multi-scale Component Dictionaries
- arxiv url: http://arxiv.org/abs/2008.00418v1
- Date: Sun, 2 Aug 2020 07:02:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 19:47:55.600181
- Title: Blind Face Restoration via Deep Multi-scale Component Dictionaries
- Title(参考訳): 深層多スケール成分辞書によるブラインド顔復元
- Authors: Xiaoming Li, Chaofeng Chen, Shangchen Zhou, Xianhui Lin, Wangmeng Zuo,
Lei Zhang
- Abstract要約: 劣化した観測の復元過程をガイドするディープフェイス辞書ネットワーク(DFDNet)を提案する。
DFDNetは高品質な画像から知覚的に重要な顔成分のディープ辞書を生成する。
コンポーネントAdaINは、入力機能と辞書機能の間のスタイルの多様性を取り除くために利用される。
- 参考スコア(独自算出の注目度): 75.02640809505277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent reference-based face restoration methods have received considerable
attention due to their great capability in recovering high-frequency details on
real low-quality images. However, most of these methods require a high-quality
reference image of the same identity, making them only applicable in limited
scenes. To address this issue, this paper suggests a deep face dictionary
network (termed as DFDNet) to guide the restoration process of degraded
observations. To begin with, we use K-means to generate deep dictionaries for
perceptually significant face components (\ie, left/right eyes, nose and mouth)
from high-quality images. Next, with the degraded input, we match and select
the most similar component features from their corresponding dictionaries and
transfer the high-quality details to the input via the proposed dictionary
feature transfer (DFT) block. In particular, component AdaIN is leveraged to
eliminate the style diversity between the input and dictionary features (\eg,
illumination), and a confidence score is proposed to adaptively fuse the
dictionary feature to the input. Finally, multi-scale dictionaries are adopted
in a progressive manner to enable the coarse-to-fine restoration. Experiments
show that our proposed method can achieve plausible performance in both
quantitative and qualitative evaluation, and more importantly, can generate
realistic and promising results on real degraded images without requiring an
identity-belonging reference. The source code and models are available at
\url{https://github.com/csxmli2016/DFDNet}.
- Abstract(参考訳): 近年の参照型顔復元法は, 実際の低品質画像の高頻度細部を復元する能力に優れており, 注目されている。
しかし、これらの手法のほとんどは同一のアイデンティティの高品質な参照画像を必要とするため、限られた場面でのみ適用できる。
本稿では,劣化した観測の復元過程をガイドするディープフェイス辞書ネットワーク(DFDNet)を提案する。
まず、K-meansを用いて、高品質な画像から知覚的に重要な顔成分(白、左目、鼻、口)の深い辞書を生成する。
次に、劣化した入力を用いて、対応する辞書から最も類似した特徴をマッチングして選択し、提案した辞書特徴伝達(DFT)ブロックを介して、高品質な詳細を入力に転送する。
特に、入力と辞書の特徴(例えば、照明)のスタイル多様性をなくすためにコンポーネント・アデインを活用し、その辞書特徴を入力に適応的に融合させるための信頼度スコアを提案する。
最後に,複数規模の辞書を漸進的に採用し,粗大から細かな復元を実現する。
実験により,提案手法は定量評価と定性評価の両方において有意な性能を達成でき,さらに重要なことは,実劣化画像に対する現実的かつ有望な結果が得られることである。
ソースコードとモデルは \url{https://github.com/csxmli2016/dfdnet} で入手できる。
関連論文リスト
- DaLPSR: Leverage Degradation-Aligned Language Prompt for Real-World Image Super-Resolution [19.33582308829547]
本稿では, 精度, 精細度, 高忠実度画像復元のために, 劣化対応言語プロンプトを活用することを提案する。
提案手法は,新しい最先端の知覚品質レベルを実現する。
論文 参考訳(メタデータ) (2024-06-24T09:30:36Z) - HARIS: Human-Like Attention for Reference Image Segmentation [5.808325471170541]
本稿では,Human-Like Attention機構を導入したHARISと呼ばれる参照画像分割手法を提案する。
提案手法は,最先端性能とゼロショット能力に優れる。
論文 参考訳(メタデータ) (2024-05-17T11:29:23Z) - ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - The Right Losses for the Right Gains: Improving the Semantic Consistency
of Deep Text-to-Image Generation with Distribution-Sensitive Losses [0.35898124827270983]
本稿では,2つの損失関数の新たな組み合わせであるフェイク・ツー・フェイク・ツー・フェイク・フェイク・ロスと,フェイク・トゥ・リアル・ロスの対比学習手法を提案する。
このアプローチをSSAGANとAttnGANの2つのベースラインモデルで検証する。
提案手法は,CUBデータセットのスタイルブロックを用いて,AttnGANの定性的な結果を改善することを示す。
論文 参考訳(メタデータ) (2023-12-18T00:05:28Z) - Reinforcement Learning from Diffusion Feedback: Q* for Image Search [2.5835347022640254]
モデル非依存学習を用いた画像生成のための2つのモデルを提案する。
RLDFは、事前保存された報酬関数誘導による視覚模倣のための特異なアプローチである。
クラス一貫性と強力な視覚的多様性を示す様々な領域にまたがる高品質な画像を生成する。
論文 参考訳(メタデータ) (2023-11-27T09:20:12Z) - Towards Better Multi-modal Keyphrase Generation via Visual Entity
Enhancement and Multi-granularity Image Noise Filtering [79.44443231700201]
マルチモーダルなキーフレーズ生成は、入力されたテキストイメージペアのコアポイントを表すキーフレーズのセットを作成することを目的としている。
入力されたテキストと画像はしばしば完全に一致しないので、画像はモデルにノイズをもたらす可能性がある。
本稿では,モデル入力を外部知識で豊かにするだけでなく,画像ノイズを効果的にフィルタする,新しいマルチモーダル・キーフレーズ生成モデルを提案する。
論文 参考訳(メタデータ) (2023-09-09T09:41:36Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Learning Dual Memory Dictionaries for Blind Face Restoration [75.66195723349512]
最近の研究は、主に2つの側面、すなわち、ジェネリックと特定の修復を別々に扱う。
本稿では,2つの辞書を通したジェネリックおよび特定の特徴を明示的に記憶することでDMDNetを提案する。
CelebRef-HQと呼ばれる新しい高品質なデータセットは、高解像度空間における特定の顔復元の探索を促進するために構築されている。
論文 参考訳(メタデータ) (2022-10-15T01:55:41Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。