論文の概要: CNN Detection of GAN-Generated Face Images based on Cross-Band
Co-occurrences Analysis
- arxiv url: http://arxiv.org/abs/2007.12909v2
- Date: Fri, 2 Oct 2020 12:43:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 01:01:08.636119
- Title: CNN Detection of GAN-Generated Face Images based on Cross-Band
Co-occurrences Analysis
- Title(参考訳): クロスバンド共起解析に基づくGAN生成顔画像のCNN検出
- Authors: Mauro Barni, Kassem Kallas, Ehsan Nowroozi, Benedetta Tondi
- Abstract要約: 最終世代のGANモデルでは、自然と視覚的に区別できない合成画像を生成することができる。
本稿では、スペクトル帯域間の不整合を利用して、自然画像とGAN生成物を区別する手法を提案する。
- 参考スコア(独自算出の注目度): 34.41021278275805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Last-generation GAN models allow to generate synthetic images which are
visually indistinguishable from natural ones, raising the need to develop tools
to distinguish fake and natural images thus contributing to preserve the
trustworthiness of digital images. While modern GAN models can generate very
high-quality images with no visible spatial artifacts, reconstruction of
consistent relationships among colour channels is expectedly more difficult. In
this paper, we propose a method for distinguishing GAN-generated from natural
images by exploiting inconsistencies among spectral bands, with specific focus
on the generation of synthetic face images. Specifically, we use cross-band
co-occurrence matrices, in addition to spatial co-occurrence matrices, as input
to a CNN model, which is trained to distinguish between real and synthetic
faces. The results of our experiments confirm the goodness of our approach
which outperforms a similar detection technique based on intra-band spatial
co-occurrences only. The performance gain is particularly significant with
regard to robustness against post-processing, like geometric transformations,
filtering and contrast manipulations.
- Abstract(参考訳): 次世代のGANモデルでは、視覚的に自然と区別できない合成画像を生成することができ、偽画像と自然画像を区別するツールを開発する必要性が高まっ、デジタル画像の信頼性の維持に寄与する。
現代のGANモデルは、視覚的な空間アーチファクトのない非常に高品質な画像を生成することができるが、カラーチャネル間の一貫した関係の再構築は、予想以上に困難である。
本稿では,合成顔画像の生成に焦点をあて,スペクトル帯域間の不整合を利用して自然画像とGAN生成物を区別する手法を提案する。
具体的には,実顔と合成顔の区別を訓練したcnnモデルへの入力として,空間共起行列に加えてクロスバンド共起行列を用いる。
実験の結果,バンド内空間共起のみに基づいて同様の検出手法を導出する手法の良否を確認した。
性能向上は、幾何学的変換、フィルタリング、コントラスト操作などの後処理に対する堅牢性において特に重要である。
関連論文リスト
- Intriguing properties of synthetic images: from generative adversarial
networks to diffusion models [19.448196464632]
実際の画像と偽画像を区別する上で,どの画像の特徴がより優れているかを知ることが重要である。
本稿では, 実画像と生成画像の最も法学的に関係した特徴を発見することを目的とした, 異なる家系の多数の画像生成装置の系統的研究について報告する。
論文 参考訳(メタデータ) (2023-04-13T11:13:19Z) - Unsupervised Domain Transfer with Conditional Invertible Neural Networks [83.90291882730925]
条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
論文 参考訳(メタデータ) (2023-03-17T18:00:27Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Detecting High-Quality GAN-Generated Face Images using Neural Networks [23.388645531702597]
本稿では,スペクトル帯域差を利用したGAN生成画像と実画像との区別手法を提案する。
特に,クロスバンド共起行列と空間共起行列を用いて,顔画像のデジタル保存を可能にする。
性能向上は特に重要であり、異なる後処理環境において92%以上を達成することを示す。
論文 参考訳(メタデータ) (2022-03-03T13:53:27Z) - Exploring the Asynchronous of the Frequency Spectra of GAN-generated
Facial Images [19.126496628073376]
カラーチャネルの非同期周波数スペクトルを探索する新しい手法を提案する。これは、教師なし学習モデルと教師なし学習モデルの両方を訓練し、GANに基づく合成画像の識別に有効である。
実験結果から,周波数領域におけるスペクトルの差は,様々な種類のGAN生成画像の検出に有効であることが示唆された。
論文 参考訳(メタデータ) (2021-12-15T11:34:11Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Identity-Aware CycleGAN for Face Photo-Sketch Synthesis and Recognition [61.87842307164351]
まず,画像生成ネットワークの監視に新たな知覚損失を適用したIACycleGAN(Identity-Aware CycleGAN)モデルを提案する。
眼や鼻などの重要な顔領域の合成により多くの注意を払うことで、フォトエッチング合成におけるサイクガンを改善する。
IACycleGANによる画像の合成を反復的に行う合成モデルと認識モデルとの相互最適化手法を開発した。
論文 参考訳(メタデータ) (2021-03-30T01:30:08Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z) - Deep Snow: Synthesizing Remote Sensing Imagery with Generative
Adversarial Nets [0.5249805590164901]
GAN(Generative Adversarial Network)は、リモートセンシング画像における現実的な広汎な変化を生成するために用いられる。
生成画像と実画像の深い埋め込みに基づく変換品質指標について検討する。
論文 参考訳(メタデータ) (2020-05-18T17:05:00Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。