論文の概要: Exposing GAN-generated Faces Using Inconsistent Corneal Specular
Highlights
- arxiv url: http://arxiv.org/abs/2009.11924v2
- Date: Mon, 12 Oct 2020 19:28:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 04:56:56.120281
- Title: Exposing GAN-generated Faces Using Inconsistent Corneal Specular
Highlights
- Title(参考訳): 非一貫性角膜スペクトル光を用いたGAN生成顔の露光
- Authors: Shu Hu, Yuezun Li, and Siwei Lyu
- Abstract要約: GAN合成顔は両眼の角膜特異なハイライトで露出できることを示す。
この矛盾は、GANモデルにおける物理的・生理学的制約の欠如によって引き起こされる。
- 参考スコア(独自算出の注目度): 42.83346543247565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sophisticated generative adversary network (GAN) models are now able to
synthesize highly realistic human faces that are difficult to discern from real
ones visually. In this work, we show that GAN synthesized faces can be exposed
with the inconsistent corneal specular highlights between two eyes. The
inconsistency is caused by the lack of physical/physiological constraints in
the GAN models. We show that such artifacts exist widely in high-quality GAN
synthesized faces and further describe an automatic method to extract and
compare corneal specular highlights from two eyes. Qualitative and quantitative
evaluations of our method suggest its simplicity and effectiveness in
distinguishing GAN synthesized faces.
- Abstract(参考訳): GAN(Sophisticated Generative Adversary Network)モデルでは,現実的な顔を視覚的に識別することが難しい,極めて現実的な顔を合成できるようになった。
本研究では,GAN合成顔は両眼の角膜特異なハイライトで露出することができることを示す。
この矛盾は、GANモデルにおける物理的・生理学的制約の欠如に起因する。
高品質なGAN合成顔に広く存在することを示し、さらに2つの目から角膜スペクトルのハイライトを抽出・比較する自動手法について述べる。
本手法の質的,定量的評価は,GAN合成顔の識別における簡便さと有効性を示している。
関連論文リスト
- Detecting High-Quality GAN-Generated Face Images using Neural Networks [23.388645531702597]
本稿では,スペクトル帯域差を利用したGAN生成画像と実画像との区別手法を提案する。
特に,クロスバンド共起行列と空間共起行列を用いて,顔画像のデジタル保存を可能にする。
性能向上は特に重要であり、異なる後処理環境において92%以上を達成することを示す。
論文 参考訳(メタデータ) (2022-03-03T13:53:27Z) - Eyes Tell All: Irregular Pupil Shapes Reveal GAN-generated Faces [40.15016121723183]
GAN生成顔は不規則な瞳孔形状で露出できることを示す。
この現象は、GANモデルにおける生理的制約の欠如によって引き起こされる。
論文 参考訳(メタデータ) (2021-09-01T03:25:50Z) - SynFace: Face Recognition with Synthetic Data [83.15838126703719]
我々は、ID混在(IM)とドメイン混在(DM)を併用したSynFaceを考案し、パフォーマンスギャップを緩和する。
また、合成顔画像の系統的実験分析を行い、合成データを顔認識に効果的に活用する方法についての知見を提供する。
論文 参考訳(メタデータ) (2021-08-18T03:41:54Z) - Heterogeneous Face Frontalization via Domain Agnostic Learning [74.86585699909459]
本研究では, 視覚領域における正面視を, ポーズのバリエーションで合成できるドメイン非依存学習型生成逆数ネットワーク(DAL-GAN)を提案する。
DAL-GANは、補助分類器を備えたジェネレータと、より優れた合成のために局所的およびグローバルなテクスチャ識別をキャプチャする2つの識別器から構成される。
論文 参考訳(メタデータ) (2021-07-17T20:41:41Z) - LEGAN: Disentangled Manipulation of Directional Lighting and Facial
Expressions by Leveraging Human Perceptual Judgements [7.5603864775031004]
顔画像の光と表情を協調的に操作するための知覚的品質判断を利用する新しい合成フレームワーク LEGAN を提案する。
LEGANは、所望の出力画像にアップスケールする前に、照明と表現のサブスペースをアンタングルし、特徴空間で変換を行う。
また,LEGANおよび他のGANモデルにより合成された画像を用いて知覚的研究を行い,品質推定と視覚的忠実度との相関を示す。
論文 参考訳(メタデータ) (2020-10-04T01:56:54Z) - CNN Detection of GAN-Generated Face Images based on Cross-Band
Co-occurrences Analysis [34.41021278275805]
最終世代のGANモデルでは、自然と視覚的に区別できない合成画像を生成することができる。
本稿では、スペクトル帯域間の不整合を利用して、自然画像とGAN生成物を区別する手法を提案する。
論文 参考訳(メタデータ) (2020-07-25T10:55:04Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。