論文の概要: PatchCraft: Exploring Texture Patch for Efficient AI-generated Image
Detection
- arxiv url: http://arxiv.org/abs/2311.12397v3
- Date: Thu, 7 Mar 2024 14:26:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 17:25:09.637276
- Title: PatchCraft: Exploring Texture Patch for Efficient AI-generated Image
Detection
- Title(参考訳): PatchCraft: 効率的なAI生成画像検出のためのテクスチャパッチの探索
- Authors: Nan Zhong, Yiran Xu, Sheng Li, Zhenxing Qian, Xinpeng Zhang
- Abstract要約: 本稿では,多種多様な生成モデルを用いて生成した偽画像を識別できる新しいAI生成画像検出器を提案する。
グローバルな意味情報を消去し,テクスチャパッチを強化するために,新しいSmash&Reconstruction前処理を提案する。
我々のアプローチは最先端のベースラインよりも大きなマージンで優れています。
- 参考スコア(独自算出の注目度): 39.820699370876916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent generative models show impressive performance in generating
photographic images. Humans can hardly distinguish such incredibly
realistic-looking AI-generated images from real ones. AI-generated images may
lead to ubiquitous disinformation dissemination. Therefore, it is of utmost
urgency to develop a detector to identify AI generated images. Most existing
detectors suffer from sharp performance drops over unseen generative models. In
this paper, we propose a novel AI-generated image detector capable of
identifying fake images created by a wide range of generative models. We
observe that the texture patches of images tend to reveal more traces left by
generative models compared to the global semantic information of the images. A
novel Smash&Reconstruction preprocessing is proposed to erase the global
semantic information and enhance texture patches. Furthermore, pixels in rich
texture regions exhibit more significant fluctuations than those in poor
texture regions. Synthesizing realistic rich texture regions proves to be more
challenging for existing generative models. Based on this principle, we
leverage the inter-pixel correlation contrast between rich and poor texture
regions within an image to further boost the detection performance.
In addition, we build a comprehensive AI-generated image detection benchmark,
which includes 17 kinds of prevalent generative models, to evaluate the
effectiveness of existing baselines and our approach. Our benchmark provides a
leaderboard for follow-up studies. Extensive experimental results show that our
approach outperforms state-of-the-art baselines by a significant margin. Our
project: https://fdmas.github.io/AIGCDetect
- Abstract(参考訳): 最近の生成モデルは、写真画像の生成において印象的な性能を示している。
人間は、そんな信じられないほどリアルなai画像と実際の画像とを区別できない。
AI生成画像は、ユビキタスな偽情報拡散につながる可能性がある。
したがって、AI生成画像を特定する検出器を開発するのは最も緊急である。
既存の検出器の多くは、目に見えない生成モデルよりも高い性能低下に悩まされている。
本稿では,多種多様な生成モデルにより生成された偽画像を識別できる,新しいAI生成画像検出器を提案する。
画像のテクスチャパッチは,画像の全体的意味情報と比較して,生成モデルが残した痕跡が多くなる傾向が観察された。
グローバルセマンティクス情報の消去とテクスチャパッチの強化を目的として,新しいsmash/reconstruction前処理を提案する。
さらに, 濃厚なテクスチャ領域の画素は, 粗悪なテクスチャ領域のピクセルよりも顕著な変動を示した。
現実的なリッチテクスチャ領域の合成は、既存の生成モデルにとってより困難であることが証明されている。
この原理に基づき,画像中のテクスチャ領域とテクスチャ領域間の画素間相関コントラストを利用して,検出性能をさらに向上させる。
さらに、既存のベースラインの有効性とアプローチを評価するために、17種類の事前生成モデルを含む包括的なAI生成画像検出ベンチマークを構築した。
我々のベンチマークはフォローアップ研究のリーダーボードを提供する。
その結果,本手法は最先端のベースラインよりも有意差が認められた。
私たちのプロジェクト: https://fdmas.github.io/aigcdetect
関連論文リスト
- GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross
Appearance-Edge Learning [49.93362169016503]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - AI-Generated Images Introduce Invisible Relevance Bias to Text-Image
Retrieval [70.54890125718387]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - AntifakePrompt: Prompt-Tuned Vision-Language Models are Fake Image
Detectors [27.07771989900852]
深層生成モデルは、偽情報や著作権侵害に対する懸念を高めながら、驚くほど偽のイメージを作成することができる。
実画像と偽画像とを区別するためにディープフェイク検出技術が開発された。
本稿では,視覚言語モデル(VLM)を用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-26T14:23:45Z) - Online Detection of AI-Generated Images [17.30253784649635]
この設定における一般化、Nモデルのトレーニング、および次の(N+k)上でのテストについて研究する。
我々は、この手法を画素予測に拡張し、自動的に生成されたインペイントデータを用いて、強い性能を示す。
また、商用モデルが自動データ生成に利用できないような設定では、画素検出器が合成画像全体に対してのみ訓練可能であるかどうかを評価する。
論文 参考訳(メタデータ) (2023-10-23T17:53:14Z) - Generalizable Synthetic Image Detection via Language-guided Contrastive
Learning [22.4158195581231]
偽ニュースの拡散や偽のプロフィールの作成などの合成画像の真偽の使用は、画像の真正性に関する重要な懸念を提起する。
本稿では,言語指導によるコントラスト学習と検出問題の新たな定式化による,シンプルで効果的な合成画像検出手法を提案する。
提案したLanguAge-guided SynThEsis Detection (LASTED) モデルでは,画像生成モデルに対する一般化性が大幅に向上していることが示されている。
論文 参考訳(メタデータ) (2023-05-23T08:13:27Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural
Images [59.71861772648853]
我々は,最先端拡散モデルにより生成された偽画像の正当性に関する体系的研究を開拓した。
我々の分析は、偽画像は共通の低レベルな手がかりを共有しており、容易に認識できることを示している。
本設定では,偽検出手法の性能を定量的に評価し,コントラッシブ・ベース・ディエンタング・ストラテジーを導入する。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Re-Imagen: Retrieval-Augmented Text-to-Image Generator [58.60472701831404]
検索用テキスト・ツー・イメージ・ジェネレータ(再画像)
検索用テキスト・ツー・イメージ・ジェネレータ(再画像)
論文 参考訳(メタデータ) (2022-09-29T00:57:28Z) - Fusing Global and Local Features for Generalized AI-Synthesized Image
Detection [31.35052580048599]
画像全体からのグローバル空間情報と,新しいパッチ選択モジュールによって選択されたパッチからの局所的な情報的特徴を結合する2分岐モデルを設計する。
さまざまなオブジェクトと解像度を持つ19のモデルで合成された非常に多様なデータセットを収集し、モデルを評価する。
論文 参考訳(メタデータ) (2022-03-26T01:55:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。