論文の概要: Detection, Attribution and Localization of GAN Generated Images
- arxiv url: http://arxiv.org/abs/2007.10466v1
- Date: Mon, 20 Jul 2020 20:49:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 14:34:33.425074
- Title: Detection, Attribution and Localization of GAN Generated Images
- Title(参考訳): GAN生成画像の検出・属性・位置化
- Authors: Michael Goebel, Lakshmanan Nataraj, Tejaswi Nanjundaswamy, Tajuddin
Manhar Mohammed, Shivkumar Chandrasekaran and B.S. Manjunath
- Abstract要約: 本稿では,GAN生成画像の検出,属性化,ローカライズを行う新しい手法を提案する。
深層学習ネットワークはこれらの特徴に基づいてトレーニングされ、これらのGAN生成/操作された画像を検出し、属性付けし、ローカライズする。
5つのGANデータセットに対するアプローチを大規模に評価した結果,GAN生成画像の検出には有望な結果が得られた。
- 参考スコア(独自算出の注目度): 24.430919035100317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in Generative Adversarial Networks (GANs) have led to the
creation of realistic-looking digital images that pose a major challenge to
their detection by humans or computers. GANs are used in a wide range of tasks,
from modifying small attributes of an image (StarGAN [14]), transferring
attributes between image pairs (CycleGAN [91]), as well as generating entirely
new images (ProGAN [36], StyleGAN [37], SPADE/GauGAN [64]). In this paper, we
propose a novel approach to detect, attribute and localize GAN generated images
that combines image features with deep learning methods. For every image,
co-occurrence matrices are computed on neighborhood pixels of RGB channels in
different directions (horizontal, vertical and diagonal). A deep learning
network is then trained on these features to detect, attribute and localize
these GAN generated/manipulated images. A large scale evaluation of our
approach on 5 GAN datasets comprising over 2.76 million images (ProGAN,
StarGAN, CycleGAN, StyleGAN and SPADE/GauGAN) shows promising results in
detecting GAN generated images.
- Abstract(参考訳): GAN(Generative Adversarial Networks)の最近の進歩は、人間やコンピュータによる検出に大きな課題となる現実的なデジタル画像の作成につながっている。
GANは、画像の小さな属性の変更(StarGAN [14])、画像ペア間の属性の転送(CycleGAN [91])、全く新しい画像の生成(ProGAN [36]、StyleGAN [37]、SPADE/GauGAN [64])など、幅広いタスクで使用される。
本稿では,画像特徴とディープラーニング手法を組み合わせたGAN生成画像の検出,属性化,ローカライズを行う新しい手法を提案する。
すべての画像に対して、共起行列はrgbチャネルの近傍画素上で異なる方向(水平、垂直、対角)で計算される。
深層学習ネットワークはこれらの特徴に基づいてトレーニングされ、これらのGAN生成/操作された画像を検出し、属性付けし、ローカライズする。
276万枚以上の画像(ProGAN、StarGAN、CycleGAN、StyleGAN、SPADE/GauGAN)からなる5つのGANデータセットに対するアプローチを大規模に評価したところ、GAN生成画像の検出には有望な結果が得られた。
関連論文リスト
- Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - Image Deblurring using GAN [0.0]
本研究は,GAN(Generative Adversarial Network)の画像処理への応用に焦点を当てた。
プロジェクトはGANモデルのインフローを定義し、GoPROデータセットでトレーニングする。
ネットワークは画像のシャープなピクセルを取得でき、平均29.3ピーク信号対雑音比(PSNR)と0.72構造類似度評価(SSIM)を実現している。
論文 参考訳(メタデータ) (2023-12-15T02:43:30Z) - GH-Feat: Learning Versatile Generative Hierarchical Features from GANs [61.208757845344074]
画像合成から学習した生成機能は、幅広いコンピュータビジョンタスクを解く上で大きな可能性を秘めていることを示す。
まず,事前学習したStyleGANジェネレータを学習損失関数として考慮し,エンコーダを訓練する。
GH-Feat(Generative Hierarchical Features)と呼ばれるエンコーダが生成する視覚的特徴は、階層的なGAN表現と高度に一致している。
論文 参考訳(メタデータ) (2023-01-12T21:59:46Z) - Using a Conditional Generative Adversarial Network to Control the
Statistical Characteristics of Generated Images for IACT Data Analysis [55.41644538483948]
画像のプロパティの値に応じて、画像を複数のクラスに分割し、新しい画像を生成する際に必要なクラスを指定する。
大気圧チェレンコフ望遠鏡(IACT)の画像の場合、重要な点は全画像ピクセル(画像サイズ)の明るさである。
我々は,TAIGA-IACT実験で得られた画像と類似した画像を生成するために,cGAN技術を使用した。
論文 参考訳(メタデータ) (2022-11-28T22:30:33Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Learning Hierarchical Graph Representation for Image Manipulation
Detection [50.04902159383709]
画像操作検出の目的は、画像内の操作された領域を特定し、特定することである。
最近のアプローチでは、画像に残っている改ざんするアーティファクトをキャプチャするために、洗練された畳み込みニューラルネットワーク(CNN)が採用されている。
本稿では2つの並列分岐からなる階層型グラフ畳み込みネットワーク(HGCN-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-15T01:54:25Z) - A Method for Evaluating Deep Generative Models of Images via Assessing
the Reproduction of High-order Spatial Context [9.00018232117916]
GAN(Generative Adversarial Network)は、広く使われているDGMの一種である。
本稿では,2つのGANアーキテクチャによって出力される画像の客観的なテストについて述べる。
我々は、訓練されたGANによって生成した画像の特徴を再現できるいくつかのコンテキストモデル(SCM)を設計した。
論文 参考訳(メタデータ) (2021-11-24T15:58:10Z) - Low-Rank Subspaces in GANs [101.48350547067628]
この研究は、GAN生成をより正確に制御できる低ランクな部分空間を導入している。
LowRankGAN は属性多様体の低次元表現を見つけることができる。
さまざまなデータセットでトレーニングされた最先端のGANモデル(StyleGAN2やBigGANなど)の実験は、私たちのLowRankGANの有効性を示しています。
論文 参考訳(メタデータ) (2021-06-08T16:16:32Z) - Towards Discovery and Attribution of Open-world GAN Generated Images [18.10496076534083]
本稿では,未確認のGANから生成した画像の反復的探索アルゴリズムを提案する。
アルゴリズムはネットワークトレーニング,分散検出,クラスタリング,マージ,洗練といった複数のコンポーネントで構成されている。
私たちの実験は、新しいganを発見し、オープンワールドのセットアップで使用できるアプローチの有効性を示しています。
論文 参考訳(メタデータ) (2021-05-10T18:00:13Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。