論文の概要: Towards the Detection of Diffusion Model Deepfakes
- arxiv url: http://arxiv.org/abs/2210.14571v4
- Date: Mon, 22 Jan 2024 07:24:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 22:24:08.343677
- Title: Towards the Detection of Diffusion Model Deepfakes
- Title(参考訳): 拡散モデルディープフェイクの検出に向けて
- Authors: Jonas Ricker, Simon Damm, Thorsten Holz, Asja Fischer
- Abstract要約: DMが生成した画像を検出するために,従来の手法が有効であるかどうかを評価する。
実験の結果,(1)最先端のGAN検出器は, DM生成画像と実像を確実に区別できないが, (2) DM生成画像で再トレーニングすることで, ほぼ完全な検出が可能であった。
- 参考スコア(独自算出の注目度): 27.75191463698775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the course of the past few years, diffusion models (DMs) have reached an
unprecedented level of visual quality. However, relatively little attention has
been paid to the detection of DM-generated images, which is critical to prevent
adverse impacts on our society. In contrast, generative adversarial networks
(GANs), have been extensively studied from a forensic perspective. In this
work, we therefore take the natural next step to evaluate whether previous
methods can be used to detect images generated by DMs. Our experiments yield
two key findings: (1) state-of-the-art GAN detectors are unable to reliably
distinguish real from DM-generated images, but (2) re-training them on
DM-generated images allows for almost perfect detection, which remarkably even
generalizes to GANs. Together with a feature space analysis, our results lead
to the hypothesis that DMs produce fewer detectable artifacts and are thus more
difficult to detect compared to GANs. One possible reason for this is the
absence of grid-like frequency artifacts in DM-generated images, which are a
known weakness of GANs. However, we make the interesting observation that
diffusion models tend to underestimate high frequencies, which we attribute to
the learning objective.
- Abstract(参考訳): 過去数年間、拡散モデル(DM)は前例のないレベルの視覚的品質に達してきた。
しかし, DM生成画像の検出には比較的注意が払われておらず, 社会に悪影響を及ぼすおそれがある。
対照的に、gans(generative adversarial network)は法医学的な観点から広く研究されてきた。
そこで本研究では,dmsが生成する画像の検出に従来の手法が利用できるかどうかを評価するために,次のステップを自然なものにする。
その結果,(1)最先端のgan検出器は実画像とdm生成画像を確実に区別できないが,(2)dm生成画像で再訓練することでほぼ完全な検出が可能となり,さらにgansに一般化する。
特徴空間解析と合わせて, DMは検出可能なアーティファクトが少なく, GANに比べて検出が困難である,という仮説を導いた。
この理由の1つは、ganの弱点として知られるdm生成画像にグリッドのような周波数アーティファクトがないことである。
しかし,拡散モデルでは高い周波数を過小評価する傾向がみられ,学習目標の属性となっている。
関連論文リスト
- Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - Beyond Perceptual Distances: Rethinking Disparity Assessment for Out-of-Distribution Detection with Diffusion Models [28.96695036746856]
Out-of-Distribution (OoD) 検出は、与えられたサンプルが分類器アンダープロテクションのトレーニング分布からのものであるかどうかを正当化することを目的としている。
DMベースの手法は、この分野に新たな洞察をもたらすが、未調査のままである。
本研究は、DM法における最先端検出性能を広範囲にわたる実験で実証した。
論文 参考訳(メタデータ) (2024-09-16T08:50:47Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Back-in-Time Diffusion: Unsupervised Detection of Medical Deepfakes [3.2720947374803777]
拡散モデルに基づく医用画像のための新しい異常検出法を提案する。
モデルに疑似画像上の拡散を逆転させることにより、類似したプロセスを用いて合成内容を検出する方法を示す。
本手法は非監視検出器の他の状態よりも有意に優れており,AUCは0.79から0.9、除去用0.91から0.96から0.9に増加した。
論文 参考訳(メタデータ) (2024-07-21T13:58:43Z) - SAR Image Synthesis with Diffusion Models [0.0]
拡散モデル(DM)は、合成データを生成する一般的な方法となっている。
本研究では,拡散確率モデル (DDPM) をSAR領域に適応させる特定の種類のDMについて述べる。
DDPMは,SAR画像生成のための最先端のGAN法よりも質的に,定量的に優れていることを示す。
論文 参考訳(メタデータ) (2024-05-13T14:21:18Z) - Diffusion Facial Forgery Detection [56.69763252655695]
本稿では,顔に焦点をあてた拡散生成画像を対象とした包括的データセットであるDiFFを紹介する。
人体実験といくつかの代表的な偽造検出手法を用いて,DiFFデータセットの広範な実験を行った。
その結果、人間の観察者と自動検出者の2値検出精度は30%以下であることが判明した。
論文 参考訳(メタデータ) (2024-01-29T03:20:19Z) - Projection Regret: Reducing Background Bias for Novelty Detection via
Diffusion Models [72.07462371883501]
本研究では,非意味情報のバイアスを緩和する効率的な新規性検出手法であるemphProjection Regret(PR)を提案する。
PRは、テスト画像とその拡散ベースの投影の間の知覚距離を計算し、異常を検出する。
拡張実験により、PRは生成モデルに基づく新規性検出手法の先行技術よりも有意なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-12-05T09:44:47Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - The role of noise in denoising models for anomaly detection in medical
images [62.0532151156057]
病理脳病変は脳画像に多彩な外観を示す。
正規データのみを用いた教師なし異常検出手法が提案されている。
空間分解能の最適化と雑音の大きさの最適化により,異なるモデル学習体制の性能が向上することを示す。
論文 参考訳(メタデータ) (2023-01-19T21:39:38Z) - Constrained Contrastive Distribution Learning for Unsupervised Anomaly
Detection and Localisation in Medical Images [23.79184121052212]
UAD(Unsupervised Anomaly Detection)は、通常の(すなわち健康的な)画像でのみ1クラスの分類器を学習する。
異常検出のための制約コントラスト分布学習(Constrained Contrastive Distribution Learning for Anomaly Detection, CCD)を提案する。
本手法は,3種類の大腸内視鏡および底部検診データセットにおいて,最先端のUADアプローチよりも優れている。
論文 参考訳(メタデータ) (2021-03-05T01:56:58Z) - Unsupervised 3D Brain Anomaly Detection [0.0]
異常検出(AD)とは、学習したデータ分布に適合しないデータサンプルの同定である。
GAN(Generative Adrial Networks)のような深層生成モデルは、解剖学的変動を捉えるために利用される。
本研究では、1つのモデルで体積データを効率的に処理し、3次元脳異常を検出する最初のADアプローチを例示する。
論文 参考訳(メタデータ) (2020-10-09T17:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。