論文の概要: PatchCraft: Exploring Texture Patch for Efficient AI-generated Image
Detection
- arxiv url: http://arxiv.org/abs/2311.12397v3
- Date: Thu, 7 Mar 2024 14:26:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 17:25:09.637276
- Title: PatchCraft: Exploring Texture Patch for Efficient AI-generated Image
Detection
- Title(参考訳): PatchCraft: 効率的なAI生成画像検出のためのテクスチャパッチの探索
- Authors: Nan Zhong, Yiran Xu, Sheng Li, Zhenxing Qian, Xinpeng Zhang
- Abstract要約: 本稿では,多種多様な生成モデルを用いて生成した偽画像を識別できる新しいAI生成画像検出器を提案する。
グローバルな意味情報を消去し,テクスチャパッチを強化するために,新しいSmash&Reconstruction前処理を提案する。
我々のアプローチは最先端のベースラインよりも大きなマージンで優れています。
- 参考スコア(独自算出の注目度): 39.820699370876916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent generative models show impressive performance in generating
photographic images. Humans can hardly distinguish such incredibly
realistic-looking AI-generated images from real ones. AI-generated images may
lead to ubiquitous disinformation dissemination. Therefore, it is of utmost
urgency to develop a detector to identify AI generated images. Most existing
detectors suffer from sharp performance drops over unseen generative models. In
this paper, we propose a novel AI-generated image detector capable of
identifying fake images created by a wide range of generative models. We
observe that the texture patches of images tend to reveal more traces left by
generative models compared to the global semantic information of the images. A
novel Smash&Reconstruction preprocessing is proposed to erase the global
semantic information and enhance texture patches. Furthermore, pixels in rich
texture regions exhibit more significant fluctuations than those in poor
texture regions. Synthesizing realistic rich texture regions proves to be more
challenging for existing generative models. Based on this principle, we
leverage the inter-pixel correlation contrast between rich and poor texture
regions within an image to further boost the detection performance.
In addition, we build a comprehensive AI-generated image detection benchmark,
which includes 17 kinds of prevalent generative models, to evaluate the
effectiveness of existing baselines and our approach. Our benchmark provides a
leaderboard for follow-up studies. Extensive experimental results show that our
approach outperforms state-of-the-art baselines by a significant margin. Our
project: https://fdmas.github.io/AIGCDetect
- Abstract(参考訳): 最近の生成モデルは、写真画像の生成において印象的な性能を示している。
人間は、そんな信じられないほどリアルなai画像と実際の画像とを区別できない。
AI生成画像は、ユビキタスな偽情報拡散につながる可能性がある。
したがって、AI生成画像を特定する検出器を開発するのは最も緊急である。
既存の検出器の多くは、目に見えない生成モデルよりも高い性能低下に悩まされている。
本稿では,多種多様な生成モデルにより生成された偽画像を識別できる,新しいAI生成画像検出器を提案する。
画像のテクスチャパッチは,画像の全体的意味情報と比較して,生成モデルが残した痕跡が多くなる傾向が観察された。
グローバルセマンティクス情報の消去とテクスチャパッチの強化を目的として,新しいsmash/reconstruction前処理を提案する。
さらに, 濃厚なテクスチャ領域の画素は, 粗悪なテクスチャ領域のピクセルよりも顕著な変動を示した。
現実的なリッチテクスチャ領域の合成は、既存の生成モデルにとってより困難であることが証明されている。
この原理に基づき,画像中のテクスチャ領域とテクスチャ領域間の画素間相関コントラストを利用して,検出性能をさらに向上させる。
さらに、既存のベースラインの有効性とアプローチを評価するために、17種類の事前生成モデルを含む包括的なAI生成画像検出ベンチマークを構築した。
我々のベンチマークはフォローアップ研究のリーダーボードを提供する。
その結果,本手法は最先端のベースラインよりも有意差が認められた。
私たちのプロジェクト: https://fdmas.github.io/aigcdetect
関連論文リスト
- Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - A Sanity Check for AI-generated Image Detection [49.08585395873425]
本稿では,AIによる画像検出の課題が解決されたかどうかの検査を行う。
既存の手法の一般化を定量化するために,Chameleonデータセット上で,既製のAI生成画像検出器を9つ評価した。
複数の専門家が同時に視覚的アーチファクトやノイズパターンを抽出するAI生成画像検出装置(AID)を提案する。
論文 参考訳(メタデータ) (2024-06-27T17:59:49Z) - Improving Interpretability and Robustness for the Detection of AI-Generated Images [6.116075037154215]
凍結したCLIP埋め込みに基づいて、既存の最先端AIGI検出手法を解析する。
さまざまなAIジェネレータが生成する画像が実際の画像とどのように異なるかを示す。
論文 参考訳(メタデータ) (2024-06-21T10:33:09Z) - Development of a Dual-Input Neural Model for Detecting AI-Generated Imagery [0.0]
AI生成画像を検出するツールを開発することが重要である。
本稿では、画像とフーリエ周波数分解の両方を入力として扱うデュアルブランチニューラルネットワークアーキテクチャを提案する。
提案モデルでは,CIFAKEデータセットの精度が94%向上し,従来のML手法やCNNよりも優れていた。
論文 参考訳(メタデータ) (2024-06-19T16:42:04Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - A Single Simple Patch is All You Need for AI-generated Image Detection [19.541645669791023]
生成モデルは、画像をよりリアルにするために、リッチなテクスチャでパッチを生成することに集中する傾向がある。
本稿では,偽画像の識別に単一単純パッチのノイズパターンを利用する手法を提案する。
提案手法は,公開ベンチマーク上での最先端性能を実現することができる。
論文 参考訳(メタデータ) (2024-02-02T03:50:45Z) - Invisible Relevance Bias: Text-Image Retrieval Models Prefer AI-Generated Images [67.18010640829682]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。