論文の概要: Towards the Detection of Diffusion Model Deepfakes
- arxiv url: http://arxiv.org/abs/2210.14571v1
- Date: Wed, 26 Oct 2022 09:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 14:58:48.602193
- Title: Towards the Detection of Diffusion Model Deepfakes
- Title(参考訳): 拡散モデルディープフェイクの検出に向けて
- Authors: Jonas Ricker, Simon Damm, Thorsten Holz, Asja Fischer
- Abstract要約: 拡散モデル (DM) は画像合成において有望な方法である。
彼らは多様性と品質の両面でGAN(Generative Adversarial Network)を超えており、テキスト・ツー・イメージ・モデリング(英語版)や画像・画像・イメージ・モデリング(英語版)において印象的な成果を上げている。
しかし, DM生成画像の検出にはほとんど注意が払われていないため, 社会に悪影響を及ぼすおそれがある。
- 参考スコア(独自算出の注目度): 27.537678964659396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models (DMs) have recently emerged as a promising method in image
synthesis. They have surpassed generative adversarial networks (GANs) in both
diversity and quality, and have achieved impressive results in text-to-image
and image-to-image modeling. However, to date, only little attention has been
paid to the detection of DM-generated images, which is critical to prevent
adverse impacts on our society. Although prior work has shown that
GAN-generated images can be reliably detected using automated methods, it is
unclear whether the same methods are effective against DMs. In this work, we
address this challenge and take a first look at detecting DM-generated images.
We approach the problem from two different angles: First, we evaluate the
performance of state-of-the-art detectors on a variety of DMs. Second, we
analyze DM-generated images in the frequency domain and study different factors
that influence the spectral properties of these images. Most importantly, we
demonstrate that GANs and DMs produce images with different characteristics,
which requires adaptation of existing classifiers to ensure reliable detection.
We believe this work provides the foundation and starting point for further
research to detect DM deepfakes effectively.
- Abstract(参考訳): 拡散モデル(dms)は画像合成において有望な方法として最近登場した。
彼らは多様性と品質の両方においてgan(generative adversarial network)を上回っており、テキストから画像へのモデリングや画像から画像へのモデリングで印象的な成果を上げている。
しかし, DM生成画像の検出にはほとんど注意が払われていないため, 社会に悪影響を及ぼすおそれがある。
従来の研究では、自動手法でGAN生成画像が確実に検出できることが示されているが、DMに対して同じ方法が有効かどうかは不明である。
本研究では,この課題に対処し,DM生成画像の検出について検討する。
まず,様々なDM上での最先端検出器の性能評価を行った。
次に,dm生成画像を周波数領域で解析し,スペクトル特性に影響を与える要因について検討する。
最も重要なことは、ganとdmが異なる特性を持つ画像を生成することを示し、信頼性の高い検出のために既存の分類器を適応する必要がある。
我々はこの研究がDMディープフェイクを効果的に検出するための基礎と出発点となると信じている。
関連論文リスト
- Towards the Detection of AI-Synthesized Human Face Images [12.090322373964124]
本稿では,GAN(Generative Adversarial Networks)とさまざまなDMによって生成される人間の顔画像を含むベンチマークを提案する。
そして、異なる生成モデルによって導入された偽の痕跡を周波数領域で解析し、様々な知見を得た。
さらに、周波数表現で訓練された検出器が、他の見えない生成モデルとよく一致できることを実証する。
論文 参考訳(メタデータ) (2024-02-13T19:37:44Z) - Diffusion Facial Forgery Detection [56.69763252655695]
本稿では,顔に焦点をあてた拡散生成画像を対象とした包括的データセットであるDiFFを紹介する。
人体実験といくつかの代表的な偽造検出手法を用いて,DiFFデータセットの広範な実験を行った。
その結果、人間の観察者と自動検出者の2値検出精度は30%以下であることが判明した。
論文 参考訳(メタデータ) (2024-01-29T03:20:19Z) - Projection Regret: Reducing Background Bias for Novelty Detection via
Diffusion Models [72.07462371883501]
本研究では,非意味情報のバイアスを緩和する効率的な新規性検出手法であるemphProjection Regret(PR)を提案する。
PRは、テスト画像とその拡散ベースの投影の間の知覚距離を計算し、異常を検出する。
拡張実験により、PRは生成モデルに基づく新規性検出手法の先行技術よりも有意なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-12-05T09:44:47Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - The role of noise in denoising models for anomaly detection in medical
images [62.0532151156057]
病理脳病変は脳画像に多彩な外観を示す。
正規データのみを用いた教師なし異常検出手法が提案されている。
空間分解能の最適化と雑音の大きさの最適化により,異なるモデル学習体制の性能が向上することを示す。
論文 参考訳(メタデータ) (2023-01-19T21:39:38Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - Constrained Contrastive Distribution Learning for Unsupervised Anomaly
Detection and Localisation in Medical Images [23.79184121052212]
UAD(Unsupervised Anomaly Detection)は、通常の(すなわち健康的な)画像でのみ1クラスの分類器を学習する。
異常検出のための制約コントラスト分布学習(Constrained Contrastive Distribution Learning for Anomaly Detection, CCD)を提案する。
本手法は,3種類の大腸内視鏡および底部検診データセットにおいて,最先端のUADアプローチよりも優れている。
論文 参考訳(メタデータ) (2021-03-05T01:56:58Z) - Unsupervised 3D Brain Anomaly Detection [0.0]
異常検出(AD)とは、学習したデータ分布に適合しないデータサンプルの同定である。
GAN(Generative Adrial Networks)のような深層生成モデルは、解剖学的変動を捉えるために利用される。
本研究では、1つのモデルで体積データを効率的に処理し、3次元脳異常を検出する最初のADアプローチを例示する。
論文 参考訳(メタデータ) (2020-10-09T17:59:17Z) - Pseudo-Labeling for Small Lesion Detection on Diabetic Retinopathy
Images [12.49381528673824]
糖尿病網膜症(英: Diabetic retinopathy、DR)は、世界の勤労者の視覚障害の主要な原因である。
糖尿病患者の約300~400万人は、DRのために視力を失います。
色眼底画像によるDRの診断は、そのような問題を緩和するための一般的なアプローチである。
論文 参考訳(メタデータ) (2020-03-26T17:13:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。