論文の概要: Robust Attentive Deep Neural Network for Exposing GAN-generated Faces
- arxiv url: http://arxiv.org/abs/2109.02167v1
- Date: Sun, 5 Sep 2021 21:22:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 16:37:22.542003
- Title: Robust Attentive Deep Neural Network for Exposing GAN-generated Faces
- Title(参考訳): gan生成顔のロバストな注意深層ニューラルネットワーク
- Authors: Hui Guo, Shu Hu, Xin Wang, Ming-Ching Chang, Siwei Lyu
- Abstract要約: 本稿では,GAN生成した顔の視線不整合を解析して検出できる,頑健で注意深いエンドツーエンドネットワークを提案する。
我々は,AUCの損失と従来のクロスエントロピーの損失を共同で考慮し,不均衡な学習問題に対処する。
- 参考スコア(独自算出の注目度): 40.15016121723183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: GAN-based techniques that generate and synthesize realistic faces have caused
severe social concerns and security problems. Existing methods for detecting
GAN-generated faces can perform well on limited public datasets. However,
images from existing public datasets do not represent real-world scenarios well
enough in terms of view variations and data distributions (where real faces
largely outnumber synthetic faces). The state-of-the-art methods do not
generalize well in real-world problems and lack the interpretability of
detection results. Performance of existing GAN-face detection models degrades
significantly when facing imbalanced data distributions. To address these
shortcomings, we propose a robust, attentive, end-to-end network that can spot
GAN-generated faces by analyzing their eye inconsistencies. Specifically, our
model learns to identify inconsistent eye components by localizing and
comparing the iris artifacts between the two eyes automatically. Our deep
network addresses the imbalance learning issues by considering the AUC loss and
the traditional cross-entropy loss jointly. Comprehensive evaluations of the
FFHQ dataset in terms of both balanced and imbalanced scenarios demonstrate the
superiority of the proposed method.
- Abstract(参考訳): 現実的な顔を生成し、合成するGANベースの技術は、深刻な社会的懸念とセキュリティ問題を引き起こしている。
GAN生成顔を検出する既存の方法は、限られた公開データセットでよく機能する。
しかしながら、既存の公開データセットからのイメージは、ビューのバリエーションやデータ分布(実際の顔が合成顔より圧倒的に多い)に関して、実世界のシナリオを十分に表現していない。
最先端の手法は実世界の問題ではうまく一般化せず、検出結果の解釈性に欠ける。
既存のGAN面検出モデルの性能は、不均衡なデータ分布に直面すると著しく低下する。
これらの欠点に対処するために,GAN生成顔の視線不整合を解析して検出できる頑健で注意深いエンドツーエンドネットワークを提案する。
具体的には,両眼間における虹彩アーチファクトの局所化と比較により,両眼間の不整合成分の同定を学習する。
我々は,AUCの損失と従来のクロスエントロピーの損失を共同で考慮し,不均衡な学習問題に対処する。
均衡シナリオと不均衡シナリオの両方の観点からffhqデータセットの包括的評価は,提案手法の優越性を示している。
関連論文リスト
- Analyzing the Effect of Combined Degradations on Face Recognition [0.0]
露光条件下で拡張した実世界の劣化パイプラインを用いて, 単一・複合劣化の影響を解析した。
その結果, 単一および複合劣化は異種モデル挙動を示すことが明らかとなった。
この研究は、実世界の環境における顔認識モデルの堅牢性を評価するために、実世界の複雑さを考慮に入れることの重要性を強調している。
論文 参考訳(メタデータ) (2024-06-04T09:29:59Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - GANDiffFace: Controllable Generation of Synthetic Datasets for Face
Recognition with Realistic Variations [2.7467281625529134]
本研究は,顔認識のための合成データセット生成のための新しいフレームワークであるGANDiffFaceを紹介する。
GANDiffFaceは、GAN(Generative Adversarial Networks)とDiffusionモデルのパワーを組み合わせて、既存の合成データセットの制限を克服する。
論文 参考訳(メタデータ) (2023-05-31T15:49:12Z) - Real Face Foundation Representation Learning for Generalized Deepfake
Detection [74.4691295738097]
ディープフェイク技術の出現は、個人のプライバシーと公共の安全に脅威をもたらすため、社会的な問題となっている。
十分な偽の顔を集めることはほぼ不可能であり、既存の検出器があらゆる種類の操作に一般化することは困難である。
本稿では,大規模な実顔データセットから一般表現を学習することを目的としたリアルフェイスファウンデーション表現学習(RFFR)を提案する。
論文 参考訳(メタデータ) (2023-03-15T08:27:56Z) - On Recognizing Occluded Faces in the Wild [10.420394952839242]
我々は、Real World Occluded Facesデータセットを提示する。
このデータセットは、両方の上面を持つ顔を含む。
サングラスと下面が原因です
マスクで閉ざされた
モデルが合成閉塞面上で試験された場合, 性能低下ははるかに小さいことが観察された。
論文 参考訳(メタデータ) (2021-09-08T14:20:10Z) - Heterogeneous Face Frontalization via Domain Agnostic Learning [74.86585699909459]
本研究では, 視覚領域における正面視を, ポーズのバリエーションで合成できるドメイン非依存学習型生成逆数ネットワーク(DAL-GAN)を提案する。
DAL-GANは、補助分類器を備えたジェネレータと、より優れた合成のために局所的およびグローバルなテクスチャ識別をキャプチャする2つの識別器から構成される。
論文 参考訳(メタデータ) (2021-07-17T20:41:41Z) - 3D Dense Geometry-Guided Facial Expression Synthesis by Adversarial
Learning [54.24887282693925]
本稿では,3次元密度(深度,表面正規度)情報を表現操作に用いる新しいフレームワークを提案する。
既製の最先端3D再構成モデルを用いて深度を推定し,大規模RGB-Depthデータセットを作成する。
実験により,提案手法は競争ベースラインと既存の芸術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-09-30T17:12:35Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z) - FakeLocator: Robust Localization of GAN-Based Face Manipulations [19.233930372590226]
本稿では,FakeLocatorと呼ばれる新しいアプローチを提案する。
これは、GANベースのフェイクローカライゼーション問題をグレースケールのフェイクネスマップで解決する最初の試みである。
人気の高いFaceForensics++,DFFDデータセット,および7種類の最先端のGANベースの顔生成手法による実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-01-27T06:15:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。