論文の概要: On the detection of synthetic images generated by diffusion models
- arxiv url: http://arxiv.org/abs/2211.00680v1
- Date: Tue, 1 Nov 2022 18:10:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 13:19:41.232101
- Title: On the detection of synthetic images generated by diffusion models
- Title(参考訳): 拡散モデルによる合成画像の検出について
- Authors: Riccardo Corvi and Davide Cozzolino and Giada Zingarini and Giovanni
Poggi and Koki Nagano and Luisa Verdoliva
- Abstract要約: 拡散モデル(DM)に基づく手法が注目されている。
DMはテキストベースのビジュアルコンテンツの作成を可能にする。
悪意のあるユーザーは、自分の攻撃に完全に適合した偽のメディアを生成し、配布することができる。
- 参考スコア(独自算出の注目度): 18.12766911229293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past decade, there has been tremendous progress in creating
synthetic media, mainly thanks to the development of powerful methods based on
generative adversarial networks (GAN). Very recently, methods based on
diffusion models (DM) have been gaining the spotlight. In addition to providing
an impressive level of photorealism, they enable the creation of text-based
visual content, opening up new and exciting opportunities in many different
application fields, from arts to video games. On the other hand, this property
is an additional asset in the hands of malicious users, who can generate and
distribute fake media perfectly adapted to their attacks, posing new challenges
to the media forensic community. With this work, we seek to understand how
difficult it is to distinguish synthetic images generated by diffusion models
from pristine ones and whether current state-of-the-art detectors are suitable
for the task. To this end, first we expose the forensics traces left by
diffusion models, then study how current detectors, developed for GAN-generated
images, perform on these new synthetic images, especially in challenging
social-networks scenarios involving image compression and resizing. Datasets
and code are available at github.com/grip-unina/DMimageDetection.
- Abstract(参考訳): 過去10年間で、主にgan(generative adversarial networks)に基づいた強力な手法の開発により、合成メディアの作成が著しく進展した。
最近では拡散モデル(dm)に基づく手法が注目を浴びている。
印象的なフォトリアリズムを提供するだけでなく、テキストベースのビジュアルコンテンツの作成を可能にし、アートからビデオゲームまで、さまざまなアプリケーション分野において、新しくエキサイティングな機会を開く。
一方、この資産は悪意のあるユーザーの手に付加的な資産であり、攻撃に完全に適合した偽のメディアを生成し配布し、メディアの法医学的コミュニティに新たな課題をもたらすことができる。
本研究では,拡散モデルが生成する合成画像と原始画像の区別がいかに困難か,その課題に現在の最先端の検出器が適しているかを理解することを目的とする。
この目的のために,まず拡散モデルが残した法医学的痕跡を明らかにした後,gan生成画像用に開発された現在の検出器が,これらの新しい合成画像に対してどのように作用するか,特に画像圧縮と再サイズを伴う社会的ネットワークシナリオに挑戦するかを研究する。
データセットとコードはgithub.com/grip-unina/DMimageDetectionで入手できる。
関連論文リスト
- Are CLIP features all you need for Universal Synthetic Image Origin Attribution? [13.96698277726253]
本研究では,大規模な事前学習基盤モデルの特徴を取り入れたフレームワークを提案し,合成画像のオープンセット起点属性を実現する。
我々は,低データ体制においても,本手法が顕著な帰属性能をもたらすことを示す。
論文 参考訳(メタデータ) (2024-08-17T09:54:21Z) - When Synthetic Traces Hide Real Content: Analysis of Stable Diffusion Image Laundering [18.039034362749504]
近年、高度にリアルな合成画像を作成する方法が大幅に進歩している。
SDオートエンコーダを介して画像を渡すことで、画像の合成コピーを高いリアリズムで再現することができ、視覚的アーティファクトはほとんどない。
このプロセスはSD画像ロンダリング(SD image laundering)と呼ばれ、実際の画像を見た目の合成画像に変換することができ、コンテンツ認証のための法医学的分析を複雑にするリスクがある。
論文 参考訳(メタデータ) (2024-07-15T14:01:35Z) - Coarse-to-Fine Latent Diffusion for Pose-Guided Person Image Synthesis [65.7968515029306]
PGPIS(Pose-Guided Person Image Synthesis)のためのCFLD(Coarse-to-Fine Latent Diffusion)法を提案する。
認識修正デコーダは、学習可能なクエリの集合を段階的に洗練し、粗いプロンプトとして人物画像の意味的理解を抽出するように設計されている。
論文 参考訳(メタデータ) (2024-02-28T06:07:07Z) - Learned representation-guided diffusion models for large-image generation [58.192263311786824]
自己教師型学習(SSL)からの埋め込みを条件とした拡散モデルを訓練する新しいアプローチを導入する。
我々の拡散モデルは、これらの特徴を高品質な病理組織学およびリモートセンシング画像に投影することに成功した。
実画像のバリエーションを生成して実データを増やすことにより、パッチレベルおよび大規模画像分類タスクの下流精度が向上する。
論文 参考訳(メタデータ) (2023-12-12T14:45:45Z) - Text-image guided Diffusion Model for generating Deepfake celebrity
interactions [50.37578424163951]
拡散モデルは近年、非常にリアルなビジュアルコンテンツ生成を実証している。
本稿では,その点において新しい手法を考案し,検討する。
提案手法により, 現実感を脅かすことなく, 偽の視覚コンテンツを作成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-26T08:24:37Z) - Generalizable Synthetic Image Detection via Language-guided Contrastive
Learning [22.4158195581231]
偽ニュースの拡散や偽のプロフィールの作成などの合成画像の真偽の使用は、画像の真正性に関する重要な懸念を提起する。
本稿では,言語指導によるコントラスト学習と検出問題の新たな定式化による,シンプルで効果的な合成画像検出手法を提案する。
提案したLanguAge-guided SynThEsis Detection (LASTED) モデルでは,画像生成モデルに対する一般化性が大幅に向上していることが示されている。
論文 参考訳(メタデータ) (2023-05-23T08:13:27Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Deep Image Fingerprint: Towards Low Budget Synthetic Image Detection and Model Lineage Analysis [8.777277201807351]
本研究では,実際の画像と区別できない画像の新たな検出方法を提案する。
本手法は、既知の生成モデルから画像を検出し、微調整された生成モデル間の関係を確立することができる。
本手法は,Stable Diffusion とMidversa が生成した画像に対して,最先端の事前学習検出手法に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2023-03-19T20:31:38Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。