論文の概要: FakeInversion: Learning to Detect Images from Unseen Text-to-Image Models by Inverting Stable Diffusion
- arxiv url: http://arxiv.org/abs/2406.08603v1
- Date: Wed, 12 Jun 2024 19:14:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-14 22:17:23.723192
- Title: FakeInversion: Learning to Detect Images from Unseen Text-to-Image Models by Inverting Stable Diffusion
- Title(参考訳): Fake Inversion: 安定拡散の反転による未知のテキスト-画像モデルからの画像検出学習
- Authors: George Cazenavette, Avneesh Sud, Thomas Leung, Ben Usman,
- Abstract要約: 本稿では,オープンソース事前学習型安定拡散モデルを用いて得られた特徴を用いた新しい合成画像検出器を提案する。
これらの逆転により、検出器は高視力の未確認発電機によく一般化できることが示される。
本稿では, 逆画像探索を用いて, 検出器評価におけるスタイリスティックおよびテーマバイアスを緩和する, 新たな挑戦的評価プロトコルを提案する。
- 参考スコア(独自算出の注目度): 18.829659846356765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the high potential for abuse of GenAI systems, the task of detecting synthetic images has recently become of great interest to the research community. Unfortunately, existing image-space detectors quickly become obsolete as new high-fidelity text-to-image models are developed at blinding speed. In this work, we propose a new synthetic image detector that uses features obtained by inverting an open-source pre-trained Stable Diffusion model. We show that these inversion features enable our detector to generalize well to unseen generators of high visual fidelity (e.g., DALL-E 3) even when the detector is trained only on lower fidelity fake images generated via Stable Diffusion. This detector achieves new state-of-the-art across multiple training and evaluation setups. Moreover, we introduce a new challenging evaluation protocol that uses reverse image search to mitigate stylistic and thematic biases in the detector evaluation. We show that the resulting evaluation scores align well with detectors' in-the-wild performance, and release these datasets as public benchmarks for future research.
- Abstract(参考訳): GenAIシステムの悪用の可能性が高いことから,最近,合成画像の検出が研究コミュニティにとって大きな関心を集めている。
残念なことに、既存の画像空間検出器は、新しい高忠実なテキスト・画像モデルが目隠し速度で開発されるにつれて、急速に時代遅れになっている。
そこで本研究では,オープンソースのトレーニング済み安定拡散モデルを用いて得られた特徴を用いた新しい合成画像検出器を提案する。
これらの逆転法により, 安定拡散法により生成された低忠実度偽画像のみを用いて検出器を訓練しても, 高忠実度(例えば, DALL-E3)の未確認生成物に対して, 検出器の一般化が図れることを示す。
この検出器は、複数のトレーニングおよび評価設定にまたがる新しい最先端を実現する。
さらに, 逆画像探索を用いて, 検出器評価におけるスタイリスティック, テーマバイアスを緩和する新しい挑戦的評価プロトコルを提案する。
得られた評価スコアは,検出器の性能と良好に一致し,これらのデータセットを将来の研究のための公開ベンチマークとしてリリースする。
関連論文リスト
- Time Step Generating: A Universal Synthesized Deepfake Image Detector [0.4488895231267077]
汎用合成画像検出器 Time Step Generating (TSG) を提案する。
TSGは、事前訓練されたモデルの再構築能力、特定のデータセット、サンプリングアルゴリズムに依存していない。
我々は,提案したTSGを大規模GenImageベンチマークで検証し,精度と一般化性の両方において大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-11-17T09:39:50Z) - Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - Detecting AutoEncoder is Enough to Catch LDM Generated Images [0.0]
本稿では,自己エンコーダが導入したアーティファクトを識別することで,LDM(Latent Diffusion Models)によって生成された画像を検出する手法を提案する。
LDMオートエンコーダによって再構成された画像と実際の画像とを区別するように検出器を訓練することにより、直接トレーニングすることなく、生成された画像を検出することができる。
実験の結果,最小限の偽陽性で高い検出精度を示し,この手法は偽画像と戦うための有望なツールとなる。
論文 参考訳(メタデータ) (2024-11-10T12:17:32Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Robust CLIP-Based Detector for Exposing Diffusion Model-Generated Images [13.089550724738436]
拡散モデル(DM)は画像生成に革命をもたらし、様々な分野にまたがる高品質な画像を生成する。
超現実的画像を作成する能力は、現実的コンテンツと合成的コンテンツを区別する上で大きな課題となる。
この研究は、CLIPモデルによって抽出された画像とテキストの特徴をMLP(Multilayer Perceptron)分類器と統合する堅牢な検出フレームワークを導入する。
論文 参考訳(メタデータ) (2024-04-19T14:30:41Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - ReDFeat: Recoupling Detection and Description for Multimodal Feature
Learning [51.07496081296863]
我々は、相互重み付け戦略による多モーダル特徴学習の検出と記述の独立した制約を再定義する。
本研究では,大きな受容場を有し,学習可能な非最大抑制層を備える検出器を提案する。
我々は,特徴マッチングと画像登録タスクにおける特徴量を評価するために,クロス可視,赤外線,近赤外,合成開口レーダ画像ペアを含むベンチマークを構築した。
論文 参考訳(メタデータ) (2022-05-16T04:24:22Z) - FrePGAN: Robust Deepfake Detection Using Frequency-level Perturbations [12.027711542565315]
我々は、既知のGANモデルと見えないGANモデルの両方に対してディープフェイク検出器を一般化するためのフレームワークを設計する。
本フレームワークは,実画像と区別できないような周波数レベルの摂動マップを生成する。
実験のために、GANモデル、色操作、オブジェクトカテゴリのトレーニング設定から異なる新しいテストシナリオを設計する。
論文 参考訳(メタデータ) (2022-02-07T16:45:11Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。