論文の概要: On the detection of synthetic images generated by diffusion models
- arxiv url: http://arxiv.org/abs/2211.00680v1
- Date: Tue, 1 Nov 2022 18:10:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 13:19:41.232101
- Title: On the detection of synthetic images generated by diffusion models
- Title(参考訳): 拡散モデルによる合成画像の検出について
- Authors: Riccardo Corvi and Davide Cozzolino and Giada Zingarini and Giovanni
Poggi and Koki Nagano and Luisa Verdoliva
- Abstract要約: 拡散モデル(DM)に基づく手法が注目されている。
DMはテキストベースのビジュアルコンテンツの作成を可能にする。
悪意のあるユーザーは、自分の攻撃に完全に適合した偽のメディアを生成し、配布することができる。
- 参考スコア(独自算出の注目度): 18.12766911229293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past decade, there has been tremendous progress in creating
synthetic media, mainly thanks to the development of powerful methods based on
generative adversarial networks (GAN). Very recently, methods based on
diffusion models (DM) have been gaining the spotlight. In addition to providing
an impressive level of photorealism, they enable the creation of text-based
visual content, opening up new and exciting opportunities in many different
application fields, from arts to video games. On the other hand, this property
is an additional asset in the hands of malicious users, who can generate and
distribute fake media perfectly adapted to their attacks, posing new challenges
to the media forensic community. With this work, we seek to understand how
difficult it is to distinguish synthetic images generated by diffusion models
from pristine ones and whether current state-of-the-art detectors are suitable
for the task. To this end, first we expose the forensics traces left by
diffusion models, then study how current detectors, developed for GAN-generated
images, perform on these new synthetic images, especially in challenging
social-networks scenarios involving image compression and resizing. Datasets
and code are available at github.com/grip-unina/DMimageDetection.
- Abstract(参考訳): 過去10年間で、主にgan(generative adversarial networks)に基づいた強力な手法の開発により、合成メディアの作成が著しく進展した。
最近では拡散モデル(dm)に基づく手法が注目を浴びている。
印象的なフォトリアリズムを提供するだけでなく、テキストベースのビジュアルコンテンツの作成を可能にし、アートからビデオゲームまで、さまざまなアプリケーション分野において、新しくエキサイティングな機会を開く。
一方、この資産は悪意のあるユーザーの手に付加的な資産であり、攻撃に完全に適合した偽のメディアを生成し配布し、メディアの法医学的コミュニティに新たな課題をもたらすことができる。
本研究では,拡散モデルが生成する合成画像と原始画像の区別がいかに困難か,その課題に現在の最先端の検出器が適しているかを理解することを目的とする。
この目的のために,まず拡散モデルが残した法医学的痕跡を明らかにした後,gan生成画像用に開発された現在の検出器が,これらの新しい合成画像に対してどのように作用するか,特に画像圧縮と再サイズを伴う社会的ネットワークシナリオに挑戦するかを研究する。
データセットとコードはgithub.com/grip-unina/DMimageDetectionで入手できる。
関連論文リスト
- Coarse-to-Fine Latent Diffusion for Pose-Guided Person Image Synthesis [70.58988592832684]
PGPIS(Pose-Guided Person Image Synthesis)のためのCFLD(Coarse-to-Fine Latent Diffusion)法を提案する。
認識修正デコーダは、学習可能なクエリの集合を段階的に洗練し、粗いプロンプトとして人物画像の意味的理解を抽出するように設計されている。
論文 参考訳(メタデータ) (2024-02-28T06:07:07Z) - Learned representation-guided diffusion models for large-image
generation [60.698616089211505]
自己教師型学習(SSL)からの埋め込みを条件とした拡散モデルを訓練する新しいアプローチを導入する。
我々の拡散モデルは、これらの特徴を高品質な病理組織学およびリモートセンシング画像に投影することに成功した。
実画像のバリエーションを生成して実データを増やすことにより、パッチレベルおよび大規模画像分類タスクの下流精度が向上する。
論文 参考訳(メタデータ) (2023-12-12T14:45:45Z) - Text-image guided Diffusion Model for generating Deepfake celebrity
interactions [50.37578424163951]
拡散モデルは近年、非常にリアルなビジュアルコンテンツ生成を実証している。
本稿では,その点において新しい手法を考案し,検討する。
提案手法により, 現実感を脅かすことなく, 偽の視覚コンテンツを作成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-26T08:24:37Z) - Open Set Synthetic Image Source Attribution [9.179652505898332]
本稿では,合成画像の識別のためのメトリクス学習に基づく新しいアプローチを提案する。
本手法は, 発電機間での識別が可能な移動可能な埋め込みを学習することにより機能する。
オープンなシナリオで合成画像のソースを属性付けるアプローチの能力を実証する。
論文 参考訳(メタデータ) (2023-08-22T16:37:51Z) - Generalizable Synthetic Image Detection via Language-guided Contrastive
Learning [22.4158195581231]
偽ニュースの拡散や偽のプロフィールの作成などの合成画像の真偽の使用は、画像の真正性に関する重要な懸念を提起する。
本稿では,言語指導によるコントラスト学習と検出問題の新たな定式化による,シンプルで効果的な合成画像検出手法を提案する。
提案したLanguAge-guided SynThEsis Detection (LASTED) モデルでは,画像生成モデルに対する一般化性が大幅に向上していることが示されている。
論文 参考訳(メタデータ) (2023-05-23T08:13:27Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural
Images [59.71861772648853]
我々は,最先端拡散モデルにより生成された偽画像の正当性に関する体系的研究を開拓した。
我々の分析は、偽画像は共通の低レベルな手がかりを共有しており、容易に認識できることを示している。
本設定では,偽検出手法の性能を定量的に評価し,コントラッシブ・ベース・ディエンタング・ストラテジーを導入する。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Deep Image Fingerprint: Towards Low Budget Synthetic Image Detection and
Model Lineage Analysis [10.36919027402249]
本研究では,実際の画像と区別できない画像の新たな検出方法を提案する。
本手法は、既知の生成モデルから画像を検出し、微調整された生成モデル間の関係を確立することができる。
本手法は,Stable Diffusion とMidversa が生成した画像に対して,最先端の事前学習検出手法に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2023-03-19T20:31:38Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。