論文の概要: Rich and Poor Texture Contrast: A Simple yet Effective Approach for
AI-generated Image Detection
- arxiv url: http://arxiv.org/abs/2311.12397v1
- Date: Tue, 21 Nov 2023 07:12:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 01:41:48.563808
- Title: Rich and Poor Texture Contrast: A Simple yet Effective Approach for
AI-generated Image Detection
- Title(参考訳): Rich and Poor Texture Contrast: AI生成画像検出のためのシンプルで効果的なアプローチ
- Authors: Nan Zhong, Yiran Xu, Zhenxing Qian, Xinpeng Zhang
- Abstract要約: 最近の生成モデルは、写真画像の生成において印象的な性能を示している。
人間は、信じられないほどリアルに見えるAI生成画像と実際の画像とを区別することはほとんどできない。
本稿では,多種多様な生成モデルを用いて生成した偽画像を識別できる新しいAI生成画像検出器を提案する。
- 参考スコア(独自算出の注目度): 37.00801478785396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent generative models show impressive performance in generating
photographic images. Humans can hardly distinguish such incredibly
realistic-looking AI-generated images from real ones. AI-generated images may
lead to ubiquitous disinformation dissemination. Therefore, it is of utmost
urgency to develop a detector to identify AI-generated images. Most existing
detectors suffer from sharp performance drops over unseen generative models. In
this paper, we propose a novel AI-generated image detector capable of
identifying fake images created by a wide range of generative models. Our
approach leverages the inter-pixel correlation contrast between rich and poor
texture regions within an image. Pixels in rich texture regions exhibit more
significant fluctuations than those in poor texture regions. This discrepancy
reflects that the entropy of rich texture regions is larger than that of poor
ones. Consequently, synthesizing realistic rich texture regions proves to be
more challenging for existing generative models. Based on this principle, we
divide an image into multiple patches and reconstruct them into two images,
comprising rich-texture and poor-texture patches respectively. Subsequently, we
extract the inter-pixel correlation discrepancy feature between rich and poor
texture regions. This feature serves as a universal fingerprint used for
AI-generated image forensics across different generative models. In addition,
we build a comprehensive AI-generated image detection benchmark, which includes
16 kinds of prevalent generative models, to evaluate the effectiveness of
existing baselines and our approach. Our benchmark provides a leaderboard for
follow-up studies. Extensive experimental results show that our approach
outperforms state-of-the-art baselines by a significant margin. Our project:
https://fdmas.github.io/AIGCDetect/
- Abstract(参考訳): 最近の生成モデルは、写真画像の生成において印象的な性能を示している。
人間は、そんな信じられないほどリアルなai画像と実際の画像とを区別できない。
AI生成画像は、ユビキタスな偽情報拡散につながる可能性がある。
したがって、AI生成画像を特定する検出器を開発するのは最も緊急である。
既存の検出器の多くは、目に見えない生成モデルよりも高い性能低下に悩まされている。
本稿では,多種多様な生成モデルにより生成された偽画像を識別できる,新しいAI生成画像検出器を提案する。
本手法では,画像内のテクスチャ領域とテクスチャ領域間のピクセル間相関コントラストを利用する。
豊かなテクスチャ領域の画素は、粗いテクスチャ領域よりも大きな変動を示す。
この相違は、豊かなテクスチャ領域のエントロピーが貧しい領域のエントロピーよりも大きいことを反映している。
その結果、現実的なリッチテクスチャ領域の合成は、既存の生成モデルよりも難しいことが証明される。
この原理に基づき、画像を複数のパッチに分割し、リッチテキストと貧弱テキストのパッチからなる2つのイメージに再構成する。
次に,テクスチャ領域とテクスチャ領域の画素間相関差を抽出した。
この機能は、さまざまな生成モデルにわたるAI生成画像鑑定に使用される普遍的な指紋として機能する。
さらに,既存のベースラインの有効性とアプローチを評価するために,16種類の事前生成モデルを含む総合的なAI生成画像検出ベンチマークを構築した。
我々のベンチマークはフォローアップ研究のリーダーボードを提供する。
その結果,本手法は最先端のベースラインよりも有意差が認められた。
私たちのプロジェクト:https://fdmas.github.io/AIGCDetect/
関連論文リスト
- Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - A Sanity Check for AI-generated Image Detection [49.08585395873425]
本稿では,AIによる画像検出の課題が解決されたかどうかの検査を行う。
既存の手法の一般化を定量化するために,Chameleonデータセット上で,既製のAI生成画像検出器を9つ評価した。
複数の専門家が同時に視覚的アーチファクトやノイズパターンを抽出するAI生成画像検出装置(AID)を提案する。
論文 参考訳(メタデータ) (2024-06-27T17:59:49Z) - Improving Interpretability and Robustness for the Detection of AI-Generated Images [6.116075037154215]
凍結したCLIP埋め込みに基づいて、既存の最先端AIGI検出手法を解析する。
さまざまなAIジェネレータが生成する画像が実際の画像とどのように異なるかを示す。
論文 参考訳(メタデータ) (2024-06-21T10:33:09Z) - Development of a Dual-Input Neural Model for Detecting AI-Generated Imagery [0.0]
AI生成画像を検出するツールを開発することが重要である。
本稿では、画像とフーリエ周波数分解の両方を入力として扱うデュアルブランチニューラルネットワークアーキテクチャを提案する。
提案モデルでは,CIFAKEデータセットの精度が94%向上し,従来のML手法やCNNよりも優れていた。
論文 参考訳(メタデータ) (2024-06-19T16:42:04Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - A Single Simple Patch is All You Need for AI-generated Image Detection [19.541645669791023]
生成モデルは、画像をよりリアルにするために、リッチなテクスチャでパッチを生成することに集中する傾向がある。
本稿では,偽画像の識別に単一単純パッチのノイズパターンを利用する手法を提案する。
提案手法は,公開ベンチマーク上での最先端性能を実現することができる。
論文 参考訳(メタデータ) (2024-02-02T03:50:45Z) - Invisible Relevance Bias: Text-Image Retrieval Models Prefer AI-Generated Images [67.18010640829682]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。