論文の概要: Exposing the Fake: Effective Diffusion-Generated Images Detection
- arxiv url: http://arxiv.org/abs/2307.06272v1
- Date: Wed, 12 Jul 2023 16:16:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 12:34:41.180985
- Title: Exposing the Fake: Effective Diffusion-Generated Images Detection
- Title(参考訳): フェイクの抽出:効果的な拡散生成画像検出
- Authors: Ruipeng Ma, Jinhao Duan, Fei Kong, Xiaoshuang Shi, Kaidi Xu
- Abstract要約: 本稿では拡散生成画像検出(SeDID)のためのステップワイド誤差と呼ばれる新しい検出法を提案する。
SeDIDは拡散モデルのユニークな特性、すなわち決定論的逆転と決定論的逆退誤差を利用する。
我々の研究は拡散モデル生成画像の識別に重要な貢献をしており、人工知能のセキュリティ分野における重要なステップとなっている。
- 参考スコア(独自算出の注目度): 14.646957596560076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image synthesis has seen significant advancements with the advent of
diffusion-based generative models like Denoising Diffusion Probabilistic Models
(DDPM) and text-to-image diffusion models. Despite their efficacy, there is a
dearth of research dedicated to detecting diffusion-generated images, which
could pose potential security and privacy risks. This paper addresses this gap
by proposing a novel detection method called Stepwise Error for
Diffusion-generated Image Detection (SeDID). Comprising statistical-based
$\text{SeDID}_{\text{Stat}}$ and neural network-based
$\text{SeDID}_{\text{NNs}}$, SeDID exploits the unique attributes of diffusion
models, namely deterministic reverse and deterministic denoising computation
errors. Our evaluations demonstrate SeDID's superior performance over existing
methods when applied to diffusion models. Thus, our work makes a pivotal
contribution to distinguishing diffusion model-generated images, marking a
significant step in the domain of artificial intelligence security.
- Abstract(参考訳): 画像合成は拡散確率モデル(ddpm)やテキストから画像への拡散モデルといった拡散ベースの生成モデルが出現したことで、大きな進歩を遂げている。
その効果にもかかわらず、拡散生成画像の検出に特化した研究が行われ、セキュリティとプライバシーのリスクが生じる可能性がある。
本稿では,拡散生成画像検出(SeDID)のためのステップワイド誤差と呼ばれる新しい検出手法を提案する。
統計ベースの$\text{SeDID}_{\text{Stat}}$とニューラルネットワークベースの$\text{SeDID}_{\text{NNs}}$、SeDIDは拡散モデルのユニークな属性、すなわち決定論的逆転と決定論的復号化計算エラーを利用する。
本評価は拡散モデルに適用した場合のsedidの既存手法よりも優れた性能を示す。
そこで本研究では,拡散モデル生成画像の識別に重要な貢献を行い,人工知能のセキュリティ分野における重要な一歩を踏み出した。
関連論文リスト
- DDoS: Diffusion Distribution Similarity for Out-of-Distribution Detection [28.96695036746856]
アウト・オブ・ディストリビューション(OoD)検出は、与えられたサンプルが分類器アンダープロテクト(In-Distribution)のトレーニング分布、すなわちIn-Distribution(InD)または別のOoDからであるかどうかを決定する。
近年の研究では、OoD画像をInDに近い生成物に転送することで、OoD検出を提唱するために、InDデータ上で事前訓練された拡散モデルを導入している。
既存の拡散型検出器は、この2つの画像に知覚的メトリクスを取り入れ、そのような格差を計測するが、基本的な事実を無視する:知覚的メトリクスは、基本的に人間の知覚的類似性のために考案される。
論文 参考訳(メタデータ) (2024-09-16T08:50:47Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Detecting Images Generated by Deep Diffusion Models using their Local
Intrinsic Dimensionality [8.968599131722023]
拡散モデルは驚くほどリアルな画像の視覚合成に成功している。
これにより、悪意のある目的のために、彼らの可能性に対する強い懸念が持ち上がる。
合成画像の自動検出に軽量な多重局所固有次元法(multiLID)を提案する。
論文 参考訳(メタデータ) (2023-07-05T15:03:10Z) - CamoDiffusion: Camouflaged Object Detection via Conditional Diffusion
Models [72.93652777646233]
カモフラーゲ型物体検出(COD)は、カモフラーゲ型物体とその周囲の類似性が高いため、コンピュータビジョンにおいて難しい課題である。
本研究では,CODを拡散モデルを利用した条件付きマスク生成タスクとして扱う新しいパラダイムを提案する。
カモ拡散(CamoDiffusion)と呼ばれる本手法では,拡散モデルのデノナイズプロセスを用いてマスクの雑音を反復的に低減する。
論文 参考訳(メタデータ) (2023-05-29T07:49:44Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - SinDiffusion: Learning a Diffusion Model from a Single Natural Image [159.4285444680301]
SinDiffusionは1つの自然な画像からパッチの内部分布を捉えるためにデノナイズ拡散モデルを利用する。
SinDiffusionは、2つのコア設計に基づいている。まず、SinDiffusionは、段階的にスケールが成長する複数のモデルではなく、1つのスケールで1つのモデルで訓練されている。
第2に,拡散ネットワークのパッチレベルの受容領域は,画像のパッチ統計を捉える上で重要かつ効果的であることを示す。
論文 参考訳(メタデータ) (2022-11-22T18:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。