論文の概要: GAN-Based Facial Attractiveness Enhancement
- arxiv url: http://arxiv.org/abs/2006.02766v1
- Date: Thu, 4 Jun 2020 10:46:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 10:09:07.985360
- Title: GAN-Based Facial Attractiveness Enhancement
- Title(参考訳): GANに基づく顔の魅力向上
- Authors: Yuhongze Zhou, Qinjie Xiao
- Abstract要約: 本稿では、顔の魅力を高めるために、GAN(Generative Adversarial Network)に基づく生成フレームワークを提案する。
本稿では,Beholder-GANと提案したBeholder-GANとの比較を行った。
その結果、我々のフレームワークは、最先端の魅力を高める結果を得た。
- 参考スコア(独自算出の注目度): 2.4656892597046136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a generative framework based on generative adversarial network
(GAN) to enhance facial attractiveness while preserving facial identity and
high-fidelity. Given a portrait image as input, having applied gradient descent
to recover a latent vector that this generative framework can use to synthesize
an image resemble to the input image, beauty semantic editing manipulation on
the corresponding recovered latent vector based on InterFaceGAN enables this
framework to achieve facial image beautification. This paper compared our
system with Beholder-GAN and our proposed result-enhanced version of
Beholder-GAN. It turns out that our framework obtained state-of-art
attractiveness enhancement results. The code is available at
https://github.com/zoezhou1999/BeautifyBasedOnGAN.
- Abstract(参考訳): 本稿では、顔のアイデンティティと忠実性を維持しつつ、顔の魅力を高めるために、gan(generative adversarial network)に基づく生成フレームワークを提案する。
入力としてポートレート画像が与えられると、この生成フレームワークが入力画像に似た画像の合成に使用できる潜伏ベクトルを復元するために勾配降下を適用し、InterFaceGANに基づく対応する回復潜伏ベクトルの美的セマンティック編集により、顔画像の美化を実現することができる。
本稿では,Beholder-GANと提案したBeholder-GANとの比較を行った。
その結果、我々のフレームワークは最先端の魅力を高める結果を得た。
コードはhttps://github.com/zoezhou1999/beautifybasedonganで入手できる。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - Image Deblurring using GAN [0.0]
本研究は,GAN(Generative Adversarial Network)の画像処理への応用に焦点を当てた。
プロジェクトはGANモデルのインフローを定義し、GoPROデータセットでトレーニングする。
ネットワークは画像のシャープなピクセルを取得でき、平均29.3ピーク信号対雑音比(PSNR)と0.72構造類似度評価(SSIM)を実現している。
論文 参考訳(メタデータ) (2023-12-15T02:43:30Z) - End-to-end Face-swapping via Adaptive Latent Representation Learning [12.364688530047786]
本稿では,高精細・高精細・高精細・高精細・高精細な顔交換のための新しいエンドツーエンド統合フレームワークを提案する。
顔の知覚とブレンドをエンドツーエンドのトレーニングとテストのプロセスに統合することで、野生の顔に高いリアルな顔スワッピングを実現することができる。
論文 参考訳(メタデータ) (2023-03-07T19:16:20Z) - More comprehensive facial inversion for more effective expression
recognition [8.102564078640274]
IFER(Inversion FER)と呼ばれるFERタスクの画像反転機構に基づく新しい生成手法を提案する。
ASITは、分布アライメント損失に制約された、ソースと生成された画像間のセマンティック特徴のコサイン類似度を測定する画像反転判別器を備えている。
FFHQやCelebA-HQなどの顔データセット上でASITを広範囲に評価し,現状の顔インバージョン性能を実現する方法を示した。
論文 参考訳(メタデータ) (2022-11-24T12:31:46Z) - StyleSwap: Style-Based Generator Empowers Robust Face Swapping [90.05775519962303]
StyleSwapという簡潔で効果的なフレームワークを紹介します。
私たちの中核となる考え方は、スタイルベースのジェネレータを活用して、高忠実で堅牢な顔交換を可能にすることです。
最小限の変更だけで、StyleGAN2アーキテクチャはソースとターゲットの両方から望まれる情報をうまく処理できる。
論文 参考訳(メタデータ) (2022-09-27T16:35:16Z) - Attribute Controllable Beautiful Caucasian Face Generation by Aesthetics
Driven Reinforcement Learning [21.329906392100884]
我々はEigenGANのジェネレータに強化学習の技法を構築した。
エージェントは、生成した人間の顔のセマンティックな属性を、より好ましいものへ変更する方法を解明しようとする。
近年の強化学習コミュニティに出現する材料を取り入れた新しいバリエーションを提案する。
論文 参考訳(メタデータ) (2022-08-09T03:04:10Z) - Cross-View Panorama Image Synthesis [68.35351563852335]
PanoGANは、新しい敵対的フィードバックGANフレームワークである。
PanoGANは、最先端のアプローチよりもより説得力のある、高品質なパノラマ画像生成を可能にする。
論文 参考訳(メタデータ) (2022-03-22T15:59:44Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Transforming Facial Weight of Real Images by Editing Latent Space of
StyleGAN [9.097538101642192]
本稿では,GAN(Generative Adversarial Networks)の潜伏空間に符号化された意味的顔属性を活用することにより,入力顔画像の顔重量をより薄くあるいは重くするために変換する逆・エディットフレームワークを提案する。
我々のフレームワークは、大量のラベル付き顔画像をスクラッチからトレーニングすることなく、高品質でリアルな顔重み変換を実現することを実証的に示している。
われわれの枠組みは、身近な行動が外見に与える影響を可視化することによって、個人に健康的な食品選択を動機付けるための介入として活用することができる。
論文 参考訳(メタデータ) (2020-11-05T01:45:18Z) - Face Anti-Spoofing Via Disentangled Representation Learning [90.90512800361742]
顔認識システムのセキュリティには、顔の偽造が不可欠だ。
本稿では,画像から生意気な特徴やコンテンツの特徴を乱す顔のアンチ・スプーフィングの新たな視点を提案する。
論文 参考訳(メタデータ) (2020-08-19T03:54:23Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。