論文の概要: PDA: Generalizable Detection of AI-Generated Images via Post-hoc Distribution Alignment
- arxiv url: http://arxiv.org/abs/2502.10803v1
- Date: Sat, 15 Feb 2025 13:55:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:16:27.886529
- Title: PDA: Generalizable Detection of AI-Generated Images via Post-hoc Distribution Alignment
- Title(参考訳): PDA:ポストホック分布アライメントによるAI生成画像の一般化検出
- Authors: Li Wang, Wenyu Chen, Zheng Li, Shanqing Guo,
- Abstract要約: ポストホック分布アライメント(PDA)は、AI生成画像の一般化可能な検出のための新しいアプローチである。
我々の研究は、現実の偽画像検出のためのフレキシブルで効果的なソリューションを提供し、検出システムの一般化能力を向上させる。
- 参考スコア(独自算出の注目度): 16.98090845687867
- License:
- Abstract: The rapid advancement of generative models has led to the proliferation of highly realistic AI-generated images, posing significant challenges for detection methods to generalize across diverse and evolving generative techniques. Existing approaches often fail to adapt to unknown models without costly retraining, limiting their practicability. To fill this gap, we propose Post-hoc Distribution Alignment (PDA), a novel approach for the generalizable detection for AI-generated images. The key idea is to use the known generative model to regenerate undifferentiated test images. This process aligns the distributions of the re-generated real images with the known fake images, enabling effective distinction from unknown fake images. PDA employs a two-step detection framework: 1) evaluating whether a test image aligns with the known fake distribution based on deep k-nearest neighbor (KNN) distance, and 2) re-generating test images using known generative models to create pseudo-fake images for further classification. This alignment strategy allows PDA to effectively detect fake images without relying on unseen data or requiring retraining. Extensive experiments demonstrate the superiority of PDA, achieving 96.73\% average accuracy across six state-of-the-art generative models, including GANs, diffusion models, and text-to-image models, and improving by 16.07\% over the best baseline. Through t-SNE visualizations and KNN distance analysis, we provide insights into PDA's effectiveness in separating real and fake images. Our work provides a flexible and effective solution for real-world fake image detection, advancing the generalization ability of detection systems.
- Abstract(参考訳): 生成モデルの急速な進歩は、高度に現実的なAI生成画像の拡散をもたらし、多種多様で進化する生成技術にまたがって、検出方法が一般化する上で重要な課題となっている。
既存のアプローチはしばしば、コストのかかる再トレーニングなしに未知のモデルに適応できず、実践性を制限する。
このギャップを埋めるために、AI生成画像の一般化可能な検出のための新しいアプローチであるポストホック分布アライメント(PDA)を提案する。
鍵となるアイデアは、既知の生成モデルを使用して、未分化なテストイメージを再生することだ。
このプロセスは、生成した実画像の分布を既知の偽画像と整合させ、未知の偽画像と効果的に区別できるようにする。
PDAは2段階検出フレームワークを採用している。
1)テスト画像が、KNN距離に基づいて、既知の偽の分布と一致しているかどうかを評価する。
2) 擬似フェイク画像を生成するために, 既知の生成モデルを用いてテスト画像を再生成する。
このアライメント戦略により、PDAは見えないデータや再トレーニングを必要とせずに、事実上偽画像を検出することができる。
大規模な実験は、PDAの優位性を示し、GAN、拡散モデル、テキスト・ツー・イメージモデルを含む6つの最先端生成モデルに対して96.73 %の平均精度を達成し、最高のベースラインに対して16.07 %改善した。
t-SNE視覚化とKNN距離解析により,実画像と偽画像の分離におけるPDAの有効性について考察する。
我々の研究は、現実の偽画像検出のためのフレキシブルで効果的なソリューションを提供し、検出システムの一般化能力を向上させる。
関連論文リスト
- Time Step Generating: A Universal Synthesized Deepfake Image Detector [0.4488895231267077]
汎用合成画像検出器 Time Step Generating (TSG) を提案する。
TSGは、事前訓練されたモデルの再構築能力、特定のデータセット、サンプリングアルゴリズムに依存していない。
我々は,提案したTSGを大規模GenImageベンチマークで検証し,精度と一般化性の両方において大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-11-17T09:39:50Z) - Detecting AutoEncoder is Enough to Catch LDM Generated Images [0.0]
本稿では,自己エンコーダが導入したアーティファクトを識別することで,LDM(Latent Diffusion Models)によって生成された画像を検出する手法を提案する。
LDMオートエンコーダによって再構成された画像と実際の画像とを区別するように検出器を訓練することにより、直接トレーニングすることなく、生成された画像を検出することができる。
実験の結果,最小限の偽陽性で高い検出精度を示し,この手法は偽画像と戦うための有望なツールとなる。
論文 参考訳(メタデータ) (2024-11-10T12:17:32Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Robust CLIP-Based Detector for Exposing Diffusion Model-Generated Images [13.089550724738436]
拡散モデル(DM)は画像生成に革命をもたらし、様々な分野にまたがる高品質な画像を生成する。
超現実的画像を作成する能力は、現実的コンテンツと合成的コンテンツを区別する上で大きな課題となる。
この研究は、CLIPモデルによって抽出された画像とテキストの特徴をMLP(Multilayer Perceptron)分類器と統合する堅牢な検出フレームワークを導入する。
論文 参考訳(メタデータ) (2024-04-19T14:30:41Z) - Forgery-aware Adaptive Transformer for Generalizable Synthetic Image
Detection [106.39544368711427]
本研究では,様々な生成手法から偽画像を検出することを目的とした,一般化可能な合成画像検出の課題について検討する。
本稿では,FatFormerという新しいフォージェリー適応トランスフォーマー手法を提案する。
提案手法は, 平均98%の精度でGANを観測し, 95%の精度で拡散モデルを解析した。
論文 参考訳(メタデータ) (2023-12-27T17:36:32Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Deep Image Fingerprint: Towards Low Budget Synthetic Image Detection and Model Lineage Analysis [8.777277201807351]
本研究では,実際の画像と区別できない画像の新たな検出方法を提案する。
本手法は、既知の生成モデルから画像を検出し、微調整された生成モデル間の関係を確立することができる。
本手法は,Stable Diffusion とMidversa が生成した画像に対して,最先端の事前学習検出手法に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2023-03-19T20:31:38Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - DeepFake Detection by Analyzing Convolutional Traces [0.0]
我々は,人間の顔のディープフェイクの分析に着目し,新しい検出方法を提案する。
提案手法は, 予測最大化(EM)アルゴリズムを用いて, 基礎となる畳み込み生成過程をモデル化するための局所的特徴の集合を抽出する。
その結果、異なるアーキテクチャと対応する生成過程を区別する手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-22T09:02:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。