論文の概要: PatchCraft: Exploring Texture Patch for Efficient AI-generated Image
Detection
- arxiv url: http://arxiv.org/abs/2311.12397v3
- Date: Thu, 7 Mar 2024 14:26:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 17:25:09.637276
- Title: PatchCraft: Exploring Texture Patch for Efficient AI-generated Image
Detection
- Title(参考訳): PatchCraft: 効率的なAI生成画像検出のためのテクスチャパッチの探索
- Authors: Nan Zhong, Yiran Xu, Sheng Li, Zhenxing Qian, Xinpeng Zhang
- Abstract要約: 本稿では,多種多様な生成モデルを用いて生成した偽画像を識別できる新しいAI生成画像検出器を提案する。
グローバルな意味情報を消去し,テクスチャパッチを強化するために,新しいSmash&Reconstruction前処理を提案する。
我々のアプローチは最先端のベースラインよりも大きなマージンで優れています。
- 参考スコア(独自算出の注目度): 39.820699370876916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent generative models show impressive performance in generating
photographic images. Humans can hardly distinguish such incredibly
realistic-looking AI-generated images from real ones. AI-generated images may
lead to ubiquitous disinformation dissemination. Therefore, it is of utmost
urgency to develop a detector to identify AI generated images. Most existing
detectors suffer from sharp performance drops over unseen generative models. In
this paper, we propose a novel AI-generated image detector capable of
identifying fake images created by a wide range of generative models. We
observe that the texture patches of images tend to reveal more traces left by
generative models compared to the global semantic information of the images. A
novel Smash&Reconstruction preprocessing is proposed to erase the global
semantic information and enhance texture patches. Furthermore, pixels in rich
texture regions exhibit more significant fluctuations than those in poor
texture regions. Synthesizing realistic rich texture regions proves to be more
challenging for existing generative models. Based on this principle, we
leverage the inter-pixel correlation contrast between rich and poor texture
regions within an image to further boost the detection performance.
In addition, we build a comprehensive AI-generated image detection benchmark,
which includes 17 kinds of prevalent generative models, to evaluate the
effectiveness of existing baselines and our approach. Our benchmark provides a
leaderboard for follow-up studies. Extensive experimental results show that our
approach outperforms state-of-the-art baselines by a significant margin. Our
project: https://fdmas.github.io/AIGCDetect
- Abstract(参考訳): 最近の生成モデルは、写真画像の生成において印象的な性能を示している。
人間は、そんな信じられないほどリアルなai画像と実際の画像とを区別できない。
AI生成画像は、ユビキタスな偽情報拡散につながる可能性がある。
したがって、AI生成画像を特定する検出器を開発するのは最も緊急である。
既存の検出器の多くは、目に見えない生成モデルよりも高い性能低下に悩まされている。
本稿では,多種多様な生成モデルにより生成された偽画像を識別できる,新しいAI生成画像検出器を提案する。
画像のテクスチャパッチは,画像の全体的意味情報と比較して,生成モデルが残した痕跡が多くなる傾向が観察された。
グローバルセマンティクス情報の消去とテクスチャパッチの強化を目的として,新しいsmash/reconstruction前処理を提案する。
さらに, 濃厚なテクスチャ領域の画素は, 粗悪なテクスチャ領域のピクセルよりも顕著な変動を示した。
現実的なリッチテクスチャ領域の合成は、既存の生成モデルにとってより困難であることが証明されている。
この原理に基づき,画像中のテクスチャ領域とテクスチャ領域間の画素間相関コントラストを利用して,検出性能をさらに向上させる。
さらに、既存のベースラインの有効性とアプローチを評価するために、17種類の事前生成モデルを含む包括的なAI生成画像検出ベンチマークを構築した。
我々のベンチマークはフォローアップ研究のリーダーボードを提供する。
その結果,本手法は最先端のベースラインよりも有意差が認められた。
私たちのプロジェクト: https://fdmas.github.io/aigcdetect
関連論文リスト
- Human vs. AI: A Novel Benchmark and a Comparative Study on the Detection of Generated Images and the Impact of Prompts [5.222694057785324]
本研究は,偽画像の検出性に対するプロンプトの細部レベルの影響について検討する。
私たちはCOCOデータセットの実際の写真とSDXLとFooocusで生成された画像からなる新しいデータセットCOCOXGENを作成します。
200人の被験者を対象に行ったユーザスタディでは,より長く,より詳細なプロンプトで生成された画像は,短いプロンプトで生成された画像よりもはるかに容易に検出できることが示されている。
論文 参考訳(メタデータ) (2024-12-12T20:37:52Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - A Sanity Check for AI-generated Image Detection [49.08585395873425]
我々はAI生成画像を検出するAI生成画像検出装置(AI生成画像検出装置)を提案する。
AIDEは最先端の手法を+3.5%、+4.6%改善した。
論文 参考訳(メタデータ) (2024-06-27T17:59:49Z) - Improving Interpretability and Robustness for the Detection of AI-Generated Images [6.116075037154215]
凍結したCLIP埋め込みに基づいて、既存の最先端AIGI検出手法を解析する。
さまざまなAIジェネレータが生成する画像が実際の画像とどのように異なるかを示す。
論文 参考訳(メタデータ) (2024-06-21T10:33:09Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - A Single Simple Patch is All You Need for AI-generated Image Detection [19.541645669791023]
生成モデルは、画像をよりリアルにするために、リッチなテクスチャでパッチを生成することに集中する傾向がある。
本稿では,偽画像の識別に単一単純パッチのノイズパターンを利用する手法を提案する。
提案手法は,公開ベンチマーク上での最先端性能を実現することができる。
論文 参考訳(メタデータ) (2024-02-02T03:50:45Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。