論文の概要: FRRffusion: Unveiling Authenticity with Diffusion-Based Face Retouching Reversal
- arxiv url: http://arxiv.org/abs/2405.07582v1
- Date: Mon, 13 May 2024 09:38:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 14:24:56.612788
- Title: FRRffusion: Unveiling Authenticity with Diffusion-Based Face Retouching Reversal
- Title(参考訳): FRRffusion: 拡散に基づく顔のリタッチによる認証の無効化
- Authors: Fengchuang Xing, Xiaowen Shi, Yuan-Gen Wang, Chunsheng Yang,
- Abstract要約: 本稿では,FRR(face retouching Reversal)問題について検討する。
本稿では,FRRタスクに対する新しい拡散型FRRアプローチ(FRRffusion)を提案する。
FRRffusionはGP-UNIT法と安定拡散法を4つのメトリクスで大きく上回っている。
- 参考スコア(独自算出の注目度): 8.310525579478503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unveiling the real appearance of retouched faces to prevent malicious users from deceptive advertising and economic fraud has been an increasing concern in the era of digital economics. This article makes the first attempt to investigate the face retouching reversal (FRR) problem. We first collect an FRR dataset, named deepFRR, which contains 50,000 StyleGAN-generated high-resolution (1024*1024) facial images and their corresponding retouched ones by a commercial online API. To our best knowledge, deepFRR is the first FRR dataset tailored for training the deep FRR models. Then, we propose a novel diffusion-based FRR approach (FRRffusion) for the FRR task. Our FRRffusion consists of a coarse-to-fine two-stage network: A diffusion-based Facial Morpho-Architectonic Restorer (FMAR) is constructed to generate the basic contours of low-resolution faces in the first stage, while a Transformer-based Hyperrealistic Facial Detail Generator (HFDG) is designed to create high-resolution facial details in the second stage. Tested on deepFRR, our FRRffusion surpasses the GP-UNIT and Stable Diffusion methods by a large margin in four widespread quantitative metrics. Especially, the de-retouched images by our FRRffusion are visually much closer to the raw face images than both the retouched face images and those restored by the GP-UNIT and Stable Diffusion methods in terms of qualitative evaluation with 85 subjects. These results sufficiently validate the efficacy of our work, bridging the recently-standing gap between the FRR and generic image restoration tasks. The dataset and code are available at https://github.com/GZHU-DVL/FRRffusion.
- Abstract(参考訳): 悪意のあるユーザーが欺く広告や経済詐欺を阻止するために、修正された顔が実際に現れることは、デジタル経済の時代においてますます懸念されている。
本稿では,FRR(face retouching Reversal)問題について検討する。
このデータセットは、5万個のStyleGAN生成した高解像度(1024*1024)の顔画像と、それに対応する修正された画像を商用オンラインAPIで収集する。
我々の知る限り、DeepFRRは、ディープFRRモデルのトレーニングに適した最初のFRRデータセットです。
次に,FRRタスクに対する新しい拡散型FRRアプローチ(FRRffusion)を提案する。
拡散型ファシアル・モフォ・アーキテクト・レゾラー(FMAR)は第1段階で低解像度の顔の基本的な輪郭を生成するために構築され、トランスフォーマーベースのハイパーリアリスティック・ファシアル・ディテール・ジェネレータ(HFDG)は第2段階で高解像度の顔の詳細を生成するように設計されています。
DeepFRRでテストした結果、FRRffusionはGP-UNIT法と安定拡散法を4つのメトリクスで大きく上回っている。
特に, FRRffusion による脱着画像は, 修正顔画像とGP-UNIT 法, 安定拡散法で復元された顔画像より, 生顔画像に近い視認性が高い。
これらの結果は,FRRと一般的な画像復元タスクとのギャップを埋めることによって,作業の有効性を十分に検証する。
データセットとコードはhttps://github.com/GZHU-DVL/FRRffusionで公開されている。
関連論文リスト
- One-Step Effective Diffusion Network for Real-World Image Super-Resolution [11.326598938246558]
本稿では,Real-ISR問題に対する1ステップの効果的な拡散ネットワーク,すなわちOSEDiffを提案する。
我々は,KL分散正則化を行うために,潜時空間における変分点蒸留を適用した。
実験の結果,OSEDiffは,客観的指標と主観的評価の両方の観点から,同等あるいはさらに優れたリアルISR結果が得られることが示された。
論文 参考訳(メタデータ) (2024-06-12T13:10:31Z) - Burst Super-Resolution with Diffusion Models for Improving Perceptual Quality [12.687175237915019]
バーストLR画像を受け入れる以前のSRネットワークは、曖昧なSR画像を生成することが知られている決定論的方法で訓練される。
このようなぼやけた画像は知覚的に劣化しているので、我々は鋭い高忠実度境界を再構築することを目指している。
一方,提案手法では,初期バーストSR画像の再構成にバーストLR特性を用いる。
論文 参考訳(メタデータ) (2024-03-28T13:58:05Z) - DiffMAC: Diffusion Manifold Hallucination Correction for High Generalization Blind Face Restoration [62.44659039265439]
視覚障害者の視力回復を支援するための拡散情報拡散フレームワークを提案する。
DiffMACは、多種多様な劣化シーンと異種ドメインにおいて、高度な顔の復元を実現する。
結果は,最先端手法よりもDiffMACの方が優れていることを示す。
論文 参考訳(メタデータ) (2024-03-15T08:44:15Z) - Towards Real-World Blind Face Restoration with Generative Diffusion Prior [69.84480964328465]
ブラインド顔の復元はコンピュータビジョンにおいて重要な課題であり、広範囲の応用により注目されている。
低画質の顔画像から特徴を効果的に抽出するBFRffusionを提案する。
また、人種、性別、年齢といったバランスのとれた属性を備えたPFHQというプライバシ保護顔データセットも構築しています。
論文 参考訳(メタデータ) (2023-12-25T14:16:24Z) - Learning A Coarse-to-Fine Diffusion Transformer for Image Restoration [39.071637725773314]
画像復元のための粗大な拡散変換器(C2F-DFT)を提案する。
C2F-DFTは拡散自己注意(DFSA)と拡散フィードフォワードネットワーク(DFN)を含んでいる
粗い訓練段階において,我々のC2F-DFTはノイズを推定し,サンプリングアルゴリズムにより最終クリーン画像を生成する。
論文 参考訳(メタデータ) (2023-08-17T01:59:59Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Denoising Diffusion Models for Plug-and-Play Image Restoration [135.6359475784627]
本稿では,従来のプラグアンドプレイ方式を拡散サンプリングフレームワークに統合したDiffPIRを提案する。
DiffPIRは、差別的なガウスのデノイザーに依存するプラグアンドプレイIR法と比較して、拡散モデルの生成能力を継承することが期待されている。
論文 参考訳(メタデータ) (2023-05-15T20:24:38Z) - DiffBFR: Bootstrapping Diffusion Model Towards Blind Face Restoration [8.253458555695767]
ブラインド顔修復(BFR)のための拡散確率モデル(DPM)を導入するためのDiffBFRを提案する。
DPMはトレーニングの崩壊を回避し、長い尾の分布を生成する。
低画質の画像から識別情報を復元し、実際の顔の分布に応じてテクスチャの詳細を強化する。
論文 参考訳(メタデータ) (2023-05-08T07:22:37Z) - Multi-Prior Learning via Neural Architecture Search for Blind Face
Restoration [61.27907052910136]
Blind Face Restoration (BFR)は、高品質な顔画像から高品質な顔画像を復元することを目的としている。
1)手動チューニングを伴わない強力なネットワークアーキテクチャの導出方法,2) 複数の顔前者からの補完情報を1つのネットワークで取得して復元性能を向上させる方法,の2つの大きな課題がある。
特定検索空間内において,適切な特徴抽出アーキテクチャを適応的に探索する顔復元検索ネットワーク(FRSNet)を提案する。
論文 参考訳(メタデータ) (2022-06-28T12:29:53Z) - Total Scale: Face-to-Body Detail Reconstruction from Sparse RGBD Sensors [52.38220261632204]
PIFuをベースとした再建術では, 顔面の平坦化が頻発する。
再建した顔のディテールの質を高めるために,2段階のPIFu表現を提案する。
顔の鮮明な細部と身体形状の変形におけるアプローチの有効性を実験的に検証した。
論文 参考訳(メタデータ) (2021-12-03T18:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。