論文の概要: Detecting High-Quality GAN-Generated Face Images using Neural Networks
- arxiv url: http://arxiv.org/abs/2203.01716v1
- Date: Thu, 3 Mar 2022 13:53:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 23:48:31.273997
- Title: Detecting High-Quality GAN-Generated Face Images using Neural Networks
- Title(参考訳): ニューラルネットワークを用いた高品質GAN生成顔画像の検出
- Authors: Ehsan Nowroozi, Mauro Conti, Yassine Mekdad
- Abstract要約: 本稿では,スペクトル帯域差を利用したGAN生成画像と実画像との区別手法を提案する。
特に,クロスバンド共起行列と空間共起行列を用いて,顔画像のデジタル保存を可能にする。
性能向上は特に重要であり、異なる後処理環境において92%以上を達成することを示す。
- 参考スコア(独自算出の注目度): 23.388645531702597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the past decades, the excessive use of the last-generation GAN (Generative
Adversarial Networks) models in computer vision has enabled the creation of
artificial face images that are visually indistinguishable from genuine ones.
These images are particularly used in adversarial settings to create fake
social media accounts and other fake online profiles. Such malicious activities
can negatively impact the trustworthiness of users identities. On the other
hand, the recent development of GAN models may create high-quality face images
without evidence of spatial artifacts. Therefore, reassembling uniform color
channel correlations is a challenging research problem. To face these
challenges, we need to develop efficient tools able to differentiate between
fake and authentic face images. In this chapter, we propose a new strategy to
differentiate GAN-generated images from authentic images by leveraging spectral
band discrepancies, focusing on artificial face image synthesis. In particular,
we enable the digital preservation of face images using the Cross-band
co-occurrence matrix and spatial co-occurrence matrix. Then, we implement these
techniques and feed them to a Convolutional Neural Networks (CNN) architecture
to identify the real from artificial faces. Additionally, we show that the
performance boost is particularly significant and achieves more than 92% in
different post-processing environments. Finally, we provide several research
observations demonstrating that this strategy improves a comparable detection
method based only on intra-band spatial co-occurrences.
- Abstract(参考訳): 過去数十年間、コンピュータビジョンにおける前世代のganモデル(generative adversarial networks)の過剰使用により、本物のものと視覚的に区別できない人工顔画像の作成が可能になった。
これらの画像は、特に敵対的な設定で、偽のソーシャルメディアアカウントやその他の偽のオンラインプロフィールを作成するために使用される。
このような悪意のある活動は、ユーザのアイデンティティの信頼性に悪影響を及ぼす可能性がある。
一方で、近年のganモデルでは、空間的アーティファクトの証拠がなくても高品質な顔画像を作成することができる。
したがって、均一なカラーチャネル相関の再組み立ては困難な研究課題である。
これらの課題に直面するためには、偽の顔画像と本物とを区別できる効率的なツールを開発する必要がある。
本稿では,人工顔画像合成に焦点をあてたスペクトル帯域の相違を利用して,gan生成画像と本物画像とを区別する新しい手法を提案する。
特に,クロスバンド共起行列と空間共起行列を用いて,顔画像のデジタル保存を可能にする。
そして,これらの手法を実装し,人工顔から実物を特定するために,畳み込みニューラルネットワーク(CNN)アーキテクチャに供給する。
さらに,性能向上は特に重要であり,処理後の異なる環境では92%以上達成できることを示した。
最後に,この手法が帯域内空間共起のみに基づく検出法を改善できることを実証するいくつかの研究結果を示す。
関連論文リスト
- GMFIM: A Generative Mask-guided Facial Image Manipulation Model for
Privacy Preservation [0.7734726150561088]
入力顔画像に知覚不可能な編集を適用するために,GANをベースとしたマスク誘導顔画像マニピュレーションモデルを提案する。
我々のモデルは、最先端の手法と比較して、自動顔認識システムに対してより良い性能を実現することができる。
論文 参考訳(メタデータ) (2022-01-10T14:09:14Z) - Exploring the Asynchronous of the Frequency Spectra of GAN-generated
Facial Images [19.126496628073376]
カラーチャネルの非同期周波数スペクトルを探索する新しい手法を提案する。これは、教師なし学習モデルと教師なし学習モデルの両方を訓練し、GANに基づく合成画像の識別に有効である。
実験結果から,周波数領域におけるスペクトルの差は,様々な種類のGAN生成画像の検出に有効であることが示唆された。
論文 参考訳(メタデータ) (2021-12-15T11:34:11Z) - SynFace: Face Recognition with Synthetic Data [83.15838126703719]
我々は、ID混在(IM)とドメイン混在(DM)を併用したSynFaceを考案し、パフォーマンスギャップを緩和する。
また、合成顔画像の系統的実験分析を行い、合成データを顔認識に効果的に活用する方法についての知見を提供する。
論文 参考訳(メタデータ) (2021-08-18T03:41:54Z) - Heterogeneous Face Frontalization via Domain Agnostic Learning [74.86585699909459]
本研究では, 視覚領域における正面視を, ポーズのバリエーションで合成できるドメイン非依存学習型生成逆数ネットワーク(DAL-GAN)を提案する。
DAL-GANは、補助分類器を備えたジェネレータと、より優れた合成のために局所的およびグローバルなテクスチャ識別をキャプチャする2つの識別器から構成される。
論文 参考訳(メタデータ) (2021-07-17T20:41:41Z) - Network Architecture Search for Face Enhancement [82.25775020564654]
我々は、NASFE(Network Architecture Search for Face Enhancement)と呼ばれるマルチタスクの顔復元ネットワークを提案する。
NASFEは、単一の劣化(すなわち)を含む低品質の顔画像を高めることができる。
ノイズまたはぼやけ)または複数の劣化(ノイズ+ブラル+ローライト)
論文 参考訳(メタデータ) (2021-05-13T19:46:05Z) - Identity-Aware CycleGAN for Face Photo-Sketch Synthesis and Recognition [61.87842307164351]
まず,画像生成ネットワークの監視に新たな知覚損失を適用したIACycleGAN(Identity-Aware CycleGAN)モデルを提案する。
眼や鼻などの重要な顔領域の合成により多くの注意を払うことで、フォトエッチング合成におけるサイクガンを改善する。
IACycleGANによる画像の合成を反復的に行う合成モデルと認識モデルとの相互最適化手法を開発した。
論文 参考訳(メタデータ) (2021-03-30T01:30:08Z) - A 3D GAN for Improved Large-pose Facial Recognition [3.791440300377753]
深層畳み込みニューラルネットワークを用いた顔認識は、顔画像の大きなデータセットの可用性に依存している。
近年の研究では、アイデンティティからポーズを離す方法が不十分であることが示されている。
本研究では,GAN発生器に3次元モーフィラブルモデルを組み込むことにより,野生画像から非線形テクスチャモデルを学習する。
これにより、新しい合成IDの生成と、アイデンティティを損なうことなくポーズ、照明、表現の操作が可能になります。
論文 参考訳(メタデータ) (2020-12-18T22:41:15Z) - CNN Detection of GAN-Generated Face Images based on Cross-Band
Co-occurrences Analysis [34.41021278275805]
最終世代のGANモデルでは、自然と視覚的に区別できない合成画像を生成することができる。
本稿では、スペクトル帯域間の不整合を利用して、自然画像とGAN生成物を区別する手法を提案する。
論文 参考訳(メタデータ) (2020-07-25T10:55:04Z) - Multi-Metric Evaluation of Thermal-to-Visual Face Recognition [3.0255457622022486]
我々は、機械学習を用いて、赤外線画像から視覚スペクトル面を合成する異種・横断的な顔認識の課題に対処することを目的とする。
我々は、顔画像合成にGAN(Geneversarative Adrial Networks)を使用する能力について検討し、これらの画像の性能を事前学習した畳み込みニューラルネットワーク(CNN)を用いて検討する。
CNNを用いて抽出した特徴を顔認証と検証に応用する。
論文 参考訳(メタデータ) (2020-07-22T10:18:34Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。