論文の概要: Towards the Detection of Diffusion Model Deepfakes
- arxiv url: http://arxiv.org/abs/2210.14571v4
- Date: Mon, 22 Jan 2024 07:24:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 22:24:08.343677
- Title: Towards the Detection of Diffusion Model Deepfakes
- Title(参考訳): 拡散モデルディープフェイクの検出に向けて
- Authors: Jonas Ricker, Simon Damm, Thorsten Holz, Asja Fischer
- Abstract要約: DMが生成した画像を検出するために,従来の手法が有効であるかどうかを評価する。
実験の結果,(1)最先端のGAN検出器は, DM生成画像と実像を確実に区別できないが, (2) DM生成画像で再トレーニングすることで, ほぼ完全な検出が可能であった。
- 参考スコア(独自算出の注目度): 27.75191463698775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the course of the past few years, diffusion models (DMs) have reached an
unprecedented level of visual quality. However, relatively little attention has
been paid to the detection of DM-generated images, which is critical to prevent
adverse impacts on our society. In contrast, generative adversarial networks
(GANs), have been extensively studied from a forensic perspective. In this
work, we therefore take the natural next step to evaluate whether previous
methods can be used to detect images generated by DMs. Our experiments yield
two key findings: (1) state-of-the-art GAN detectors are unable to reliably
distinguish real from DM-generated images, but (2) re-training them on
DM-generated images allows for almost perfect detection, which remarkably even
generalizes to GANs. Together with a feature space analysis, our results lead
to the hypothesis that DMs produce fewer detectable artifacts and are thus more
difficult to detect compared to GANs. One possible reason for this is the
absence of grid-like frequency artifacts in DM-generated images, which are a
known weakness of GANs. However, we make the interesting observation that
diffusion models tend to underestimate high frequencies, which we attribute to
the learning objective.
- Abstract(参考訳): 過去数年間、拡散モデル(DM)は前例のないレベルの視覚的品質に達してきた。
しかし, DM生成画像の検出には比較的注意が払われておらず, 社会に悪影響を及ぼすおそれがある。
対照的に、gans(generative adversarial network)は法医学的な観点から広く研究されてきた。
そこで本研究では,dmsが生成する画像の検出に従来の手法が利用できるかどうかを評価するために,次のステップを自然なものにする。
その結果,(1)最先端のgan検出器は実画像とdm生成画像を確実に区別できないが,(2)dm生成画像で再訓練することでほぼ完全な検出が可能となり,さらにgansに一般化する。
特徴空間解析と合わせて, DMは検出可能なアーティファクトが少なく, GANに比べて検出が困難である,という仮説を導いた。
この理由の1つは、ganの弱点として知られるdm生成画像にグリッドのような周波数アーティファクトがないことである。
しかし,拡散モデルでは高い周波数を過小評価する傾向がみられ,学習目標の属性となっている。
関連論文リスト
- Counterfactual Explanations for Face Forgery Detection via Adversarial Removal of Artifacts [23.279652897139286]
ディープフェイクとして知られる、非常にリアルなAI生成顔偽造は、深刻な社会的懸念を引き起こしている。
本稿では,人工物除去の観点からの顔偽造検出の非現実的説明を行う。
本手法は,90%以上の攻撃成功率と優れた攻撃伝達性を実現する。
論文 参考訳(メタデータ) (2024-04-12T09:13:37Z) - Diffusion Facial Forgery Detection [56.69763252655695]
本稿では,顔に焦点をあてた拡散生成画像を対象とした包括的データセットであるDiFFを紹介する。
人体実験といくつかの代表的な偽造検出手法を用いて,DiFFデータセットの広範な実験を行った。
その結果、人間の観察者と自動検出者の2値検出精度は30%以下であることが判明した。
論文 参考訳(メタデータ) (2024-01-29T03:20:19Z) - Projection Regret: Reducing Background Bias for Novelty Detection via
Diffusion Models [72.07462371883501]
本研究では,非意味情報のバイアスを緩和する効率的な新規性検出手法であるemphProjection Regret(PR)を提案する。
PRは、テスト画像とその拡散ベースの投影の間の知覚距離を計算し、異常を検出する。
拡張実験により、PRは生成モデルに基づく新規性検出手法の先行技術よりも有意なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-12-05T09:44:47Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - The role of noise in denoising models for anomaly detection in medical
images [62.0532151156057]
病理脳病変は脳画像に多彩な外観を示す。
正規データのみを用いた教師なし異常検出手法が提案されている。
空間分解能の最適化と雑音の大きさの最適化により,異なるモデル学習体制の性能が向上することを示す。
論文 参考訳(メタデータ) (2023-01-19T21:39:38Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - Constrained Contrastive Distribution Learning for Unsupervised Anomaly
Detection and Localisation in Medical Images [23.79184121052212]
UAD(Unsupervised Anomaly Detection)は、通常の(すなわち健康的な)画像でのみ1クラスの分類器を学習する。
異常検出のための制約コントラスト分布学習(Constrained Contrastive Distribution Learning for Anomaly Detection, CCD)を提案する。
本手法は,3種類の大腸内視鏡および底部検診データセットにおいて,最先端のUADアプローチよりも優れている。
論文 参考訳(メタデータ) (2021-03-05T01:56:58Z) - Unsupervised 3D Brain Anomaly Detection [0.0]
異常検出(AD)とは、学習したデータ分布に適合しないデータサンプルの同定である。
GAN(Generative Adrial Networks)のような深層生成モデルは、解剖学的変動を捉えるために利用される。
本研究では、1つのモデルで体積データを効率的に処理し、3次元脳異常を検出する最初のADアプローチを例示する。
論文 参考訳(メタデータ) (2020-10-09T17:59:17Z) - Pseudo-Labeling for Small Lesion Detection on Diabetic Retinopathy
Images [12.49381528673824]
糖尿病網膜症(英: Diabetic retinopathy、DR)は、世界の勤労者の視覚障害の主要な原因である。
糖尿病患者の約300~400万人は、DRのために視力を失います。
色眼底画像によるDRの診断は、そのような問題を緩和するための一般的なアプローチである。
論文 参考訳(メタデータ) (2020-03-26T17:13:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。