論文の概要: Let Real Images be as a Judger, Spotting Fake Images Synthesized with Generative Models
- arxiv url: http://arxiv.org/abs/2403.16513v1
- Date: Mon, 25 Mar 2024 07:58:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 15:28:08.313936
- Title: Let Real Images be as a Judger, Spotting Fake Images Synthesized with Generative Models
- Title(参考訳): 現実のイメージを判断者として、生成モデルで合成された偽画像を見つける
- Authors: Ziyou Liang, Run Wang, Weifeng Liu, Yuyang Zhang, Wenyuan Yang, Lina Wang, Xingkai Wang,
- Abstract要約: 異なる生成モデルにより合成された偽画像のアーティファクトパターンについて検討した。
本稿では,実画像でのみ共有される自然なトレースを,検出器内の新たな予測対象として採用する。
提案手法では,96.1%のmAPがベースラインを著しく上回っている。
- 参考スコア(独自算出の注目度): 16.900526163168827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the last few years, generative models have shown their powerful capabilities in synthesizing realistic images in both quality and diversity (i.e., facial images, and natural subjects). Unfortunately, the artifact patterns in fake images synthesized by different generative models are inconsistent, leading to the failure of previous research that relied on spotting subtle differences between real and fake. In our preliminary experiments, we find that the artifacts in fake images always change with the development of the generative model, while natural images exhibit stable statistical properties. In this paper, we employ natural traces shared only by real images as an additional predictive target in the detector. Specifically, the natural traces are learned from the wild real images and we introduce extended supervised contrastive learning to bring them closer to real images and further away from fake ones. This motivates the detector to make decisions based on the proximity of images to the natural traces. To conduct a comprehensive experiment, we built a high-quality and diverse dataset that includes generative models comprising 6 GAN and 6 diffusion models, to evaluate the effectiveness in generalizing unknown forgery techniques and robustness in surviving different transformations. Experimental results show that our proposed method gives 96.1% mAP significantly outperforms the baselines. Extensive experiments conducted on the widely recognized platform Midjourney reveal that our proposed method achieves an accuracy exceeding 78.4%, underscoring its practicality for real-world application deployment. The source code and partial self-built dataset are available in supplementary material.
- Abstract(参考訳): ここ数年、生成モデルは、品質と多様性(顔画像、自然被写体)の両方で現実的なイメージを合成する強力な能力を示してきた。
残念なことに、異なる生成モデルで合成された偽画像のアーティファクトパターンは矛盾しており、現実と偽の微妙な違いを見つけることに依存する過去の研究の失敗につながっている。
予備実験では, 疑似画像のアーティファクトは生成モデルの発展に伴って常に変化し, 自然画像は安定した統計特性を示すことがわかった。
本稿では,実画像でのみ共有される自然なトレースを,検出器内の新たな予測対象として採用する。
具体的には、野生の実画像から自然痕跡を学習し、実画像に近づき、さらに偽画像から遠ざけるように教師付きコントラスト学習を導入する。
これにより、検出器は自然なトレースへの画像の近接に基づいて決定を行う。
総合的な実験を行うため、6つのGANと6つの拡散モデルからなる生成モデルを含む高品質で多様なデータセットを構築し、未知の偽造技法を一般化し、生き残った異なる変換における堅牢性を評価する。
実験の結果,提案手法は96.1%のmAPがベースラインを著しく上回ることがわかった。
広く認知されているプラットフォームであるMidjourneyで実施された大規模な実験により,提案手法が78.4%を超える精度を実現し,実世界のアプリケーション展開における実用性を実証した。
ソースコードと部分的な自己構築データセットは補足資料で利用できる。
関連論文リスト
- Generating Realistic X-ray Scattering Images Using Stable Diffusion and Human-in-the-loop Annotations [42.47750355293256]
我々は、与えられたプロンプトから新しい科学的画像を生成するため、基礎的な安定拡散モデルを微調整した。
生成された画像のいくつかは重要な非現実的なアーティファクトを示しており、一般に「幻覚」として知られている。
非現実的な画像を検出するために、60%の人間が承認した画像と40%の実験画像からなるデータセットを用いて様々なコンピュータビジョンモデルを訓練した。
論文 参考訳(メタデータ) (2024-08-22T20:23:04Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - Diff-Mosaic: Augmenting Realistic Representations in Infrared Small Target Detection via Diffusion Prior [63.64088590653005]
本稿では拡散モデルに基づくデータ拡張手法であるDiff-Mosaicを提案する。
我々は,モザイク画像を高度に調整し,リアルな画像を生成するPixel-Priorという拡張ネットワークを導入する。
第2段階では,Diff-Prior という画像強調戦略を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:23:05Z) - Unveiling the Truth: Exploring Human Gaze Patterns in Fake Images [34.02058539403381]
我々は、人間の意味的知識を活用して、偽画像検出のフレームワークに含まれる可能性を調べる。
予備的な統計的分析により、人間が本物の画像や変化した画像をどのように知覚するかの特徴的なパターンを探索する。
論文 参考訳(メタデータ) (2024-03-13T19:56:30Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Perceptual Artifacts Localization for Image Synthesis Tasks [59.638307505334076]
我々は10,168個の画像からなる新しいデータセットを導入し,それぞれに知覚的アーティファクトラベルを付加した。
提案したデータセットに基づいてトレーニングされたセグメンテーションモデルは、さまざまなタスクにまたがるアーティファクトを効果的にローカライズする。
生成した画像の知覚的アーティファクトをシームレスに修正する,革新的なズームイン・インペインティングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-10-09T10:22:08Z) - On quantifying and improving realism of images generated with diffusion [50.37578424163951]
与えられた画像の5つの統計的測度から算出した画像リアリズムスコア(IRS)と呼ばれるメトリクスを提案する。
IRSは、与えられた画像を実または偽のものとして分類する手段として容易に利用できる。
我々は,安定拡散モデル (SDM) , Dalle2, Midjourney, BigGAN による偽画像の検出に成功して,提案したIRSのモデルおよびデータに依存しない性質を実験的に確立した。
このデータセットは、高品質の4つのモデルによって生成される100のクラスに対して1,000のサンプルを提供します。
論文 参考訳(メタデータ) (2023-09-26T08:32:55Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Image Completion via Inference in Deep Generative Models [16.99337751292915]
画像生成モデルにおける償却推論の観点から画像完成を検討する。
CIFAR-10およびFFHQ-256データセットの先行技術と比較して、優れたサンプル品質と多様性を示します。
論文 参考訳(メタデータ) (2021-02-24T02:59:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。