論文の概要: Towards the Detection of Diffusion Model Deepfakes
- arxiv url: http://arxiv.org/abs/2210.14571v1
- Date: Wed, 26 Oct 2022 09:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 14:58:48.602193
- Title: Towards the Detection of Diffusion Model Deepfakes
- Title(参考訳): 拡散モデルディープフェイクの検出に向けて
- Authors: Jonas Ricker, Simon Damm, Thorsten Holz, Asja Fischer
- Abstract要約: 拡散モデル (DM) は画像合成において有望な方法である。
彼らは多様性と品質の両面でGAN(Generative Adversarial Network)を超えており、テキスト・ツー・イメージ・モデリング(英語版)や画像・画像・イメージ・モデリング(英語版)において印象的な成果を上げている。
しかし, DM生成画像の検出にはほとんど注意が払われていないため, 社会に悪影響を及ぼすおそれがある。
- 参考スコア(独自算出の注目度): 27.537678964659396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models (DMs) have recently emerged as a promising method in image
synthesis. They have surpassed generative adversarial networks (GANs) in both
diversity and quality, and have achieved impressive results in text-to-image
and image-to-image modeling. However, to date, only little attention has been
paid to the detection of DM-generated images, which is critical to prevent
adverse impacts on our society. Although prior work has shown that
GAN-generated images can be reliably detected using automated methods, it is
unclear whether the same methods are effective against DMs. In this work, we
address this challenge and take a first look at detecting DM-generated images.
We approach the problem from two different angles: First, we evaluate the
performance of state-of-the-art detectors on a variety of DMs. Second, we
analyze DM-generated images in the frequency domain and study different factors
that influence the spectral properties of these images. Most importantly, we
demonstrate that GANs and DMs produce images with different characteristics,
which requires adaptation of existing classifiers to ensure reliable detection.
We believe this work provides the foundation and starting point for further
research to detect DM deepfakes effectively.
- Abstract(参考訳): 拡散モデル(dms)は画像合成において有望な方法として最近登場した。
彼らは多様性と品質の両方においてgan(generative adversarial network)を上回っており、テキストから画像へのモデリングや画像から画像へのモデリングで印象的な成果を上げている。
しかし, DM生成画像の検出にはほとんど注意が払われていないため, 社会に悪影響を及ぼすおそれがある。
従来の研究では、自動手法でGAN生成画像が確実に検出できることが示されているが、DMに対して同じ方法が有効かどうかは不明である。
本研究では,この課題に対処し,DM生成画像の検出について検討する。
まず,様々なDM上での最先端検出器の性能評価を行った。
次に,dm生成画像を周波数領域で解析し,スペクトル特性に影響を与える要因について検討する。
最も重要なことは、ganとdmが異なる特性を持つ画像を生成することを示し、信頼性の高い検出のために既存の分類器を適応する必要がある。
我々はこの研究がDMディープフェイクを効果的に検出するための基礎と出発点となると信じている。
関連論文リスト
- Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - Beyond Perceptual Distances: Rethinking Disparity Assessment for Out-of-Distribution Detection with Diffusion Models [28.96695036746856]
Out-of-Distribution (OoD) 検出は、与えられたサンプルが分類器アンダープロテクションのトレーニング分布からのものであるかどうかを正当化することを目的としている。
DMベースの手法は、この分野に新たな洞察をもたらすが、未調査のままである。
本研究は、DM法における最先端検出性能を広範囲にわたる実験で実証した。
論文 参考訳(メタデータ) (2024-09-16T08:50:47Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Back-in-Time Diffusion: Unsupervised Detection of Medical Deepfakes [3.2720947374803777]
拡散モデルに基づく医用画像のための新しい異常検出法を提案する。
モデルに疑似画像上の拡散を逆転させることにより、類似したプロセスを用いて合成内容を検出する方法を示す。
本手法は非監視検出器の他の状態よりも有意に優れており,AUCは0.79から0.9、除去用0.91から0.96から0.9に増加した。
論文 参考訳(メタデータ) (2024-07-21T13:58:43Z) - SAR Image Synthesis with Diffusion Models [0.0]
拡散モデル(DM)は、合成データを生成する一般的な方法となっている。
本研究では,拡散確率モデル (DDPM) をSAR領域に適応させる特定の種類のDMについて述べる。
DDPMは,SAR画像生成のための最先端のGAN法よりも質的に,定量的に優れていることを示す。
論文 参考訳(メタデータ) (2024-05-13T14:21:18Z) - Diffusion Facial Forgery Detection [56.69763252655695]
本稿では,顔に焦点をあてた拡散生成画像を対象とした包括的データセットであるDiFFを紹介する。
人体実験といくつかの代表的な偽造検出手法を用いて,DiFFデータセットの広範な実験を行った。
その結果、人間の観察者と自動検出者の2値検出精度は30%以下であることが判明した。
論文 参考訳(メタデータ) (2024-01-29T03:20:19Z) - Projection Regret: Reducing Background Bias for Novelty Detection via
Diffusion Models [72.07462371883501]
本研究では,非意味情報のバイアスを緩和する効率的な新規性検出手法であるemphProjection Regret(PR)を提案する。
PRは、テスト画像とその拡散ベースの投影の間の知覚距離を計算し、異常を検出する。
拡張実験により、PRは生成モデルに基づく新規性検出手法の先行技術よりも有意なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-12-05T09:44:47Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - The role of noise in denoising models for anomaly detection in medical
images [62.0532151156057]
病理脳病変は脳画像に多彩な外観を示す。
正規データのみを用いた教師なし異常検出手法が提案されている。
空間分解能の最適化と雑音の大きさの最適化により,異なるモデル学習体制の性能が向上することを示す。
論文 参考訳(メタデータ) (2023-01-19T21:39:38Z) - Constrained Contrastive Distribution Learning for Unsupervised Anomaly
Detection and Localisation in Medical Images [23.79184121052212]
UAD(Unsupervised Anomaly Detection)は、通常の(すなわち健康的な)画像でのみ1クラスの分類器を学習する。
異常検出のための制約コントラスト分布学習(Constrained Contrastive Distribution Learning for Anomaly Detection, CCD)を提案する。
本手法は,3種類の大腸内視鏡および底部検診データセットにおいて,最先端のUADアプローチよりも優れている。
論文 参考訳(メタデータ) (2021-03-05T01:56:58Z) - Unsupervised 3D Brain Anomaly Detection [0.0]
異常検出(AD)とは、学習したデータ分布に適合しないデータサンプルの同定である。
GAN(Generative Adrial Networks)のような深層生成モデルは、解剖学的変動を捉えるために利用される。
本研究では、1つのモデルで体積データを効率的に処理し、3次元脳異常を検出する最初のADアプローチを例示する。
論文 参考訳(メタデータ) (2020-10-09T17:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。