論文の概要: Unveiling Perceptual Artifacts: A Fine-Grained Benchmark for Interpretable AI-Generated Image Detection
- arxiv url: http://arxiv.org/abs/2601.19430v1
- Date: Tue, 27 Jan 2026 10:09:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.279061
- Title: Unveiling Perceptual Artifacts: A Fine-Grained Benchmark for Interpretable AI-Generated Image Detection
- Title(参考訳): 知覚アーチファクトの発見:AI生成画像検出のための細粒度ベンチマーク
- Authors: Yao Xiao, Weiyan Chen, Jiahao Chen, Zijie Cao, Weijian Deng, Binbin Yang, Ziyi Dong, Xiangyang Ji, Wei Ke, Pengxu Wei, Liang Lin,
- Abstract要約: X-AIGDは、低レベルの歪み、高レベルの意味論、認知レベルの反事実など、知覚的アーティファクトのピクセルレベルの分類されたアノテーションを提供する。
既存のAIGI検出器は、最も基本的な歪みレベルであっても、知覚的アーティファクトに依存しない。
モデル注意をアーティファクト領域と明確に整合させることは、検出器の解釈可能性と一般化を高めることができる。
- 参考スコア(独自算出の注目度): 95.08316274158165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current AI-Generated Image (AIGI) detection approaches predominantly rely on binary classification to distinguish real from synthetic images, often lacking interpretable or convincing evidence to substantiate their decisions. This limitation stems from existing AIGI detection benchmarks, which, despite featuring a broad collection of synthetic images, remain restricted in their coverage of artifact diversity and lack detailed, localized annotations. To bridge this gap, we introduce a fine-grained benchmark towards eXplainable AI-Generated image Detection, named X-AIGD, which provides pixel-level, categorized annotations of perceptual artifacts, spanning low-level distortions, high-level semantics, and cognitive-level counterfactuals. These comprehensive annotations facilitate fine-grained interpretability evaluation and deeper insight into model decision-making processes. Our extensive investigation using X-AIGD provides several key insights: (1) Existing AIGI detectors demonstrate negligible reliance on perceptual artifacts, even at the most basic distortion level. (2) While AIGI detectors can be trained to identify specific artifacts, they still substantially base their judgment on uninterpretable features. (3) Explicitly aligning model attention with artifact regions can increase the interpretability and generalization of detectors. The data and code are available at: https://github.com/Coxy7/X-AIGD.
- Abstract(参考訳): 現在のAI-Generated Image(AIGI)検出アプローチは、合成画像と現実を区別するバイナリ分類に大きく依存している。
この制限は、幅広い合成画像のコレクションを特徴とする既存のAIGI検出ベンチマークに起因しているが、アーティファクトの多様性と詳細で局所的なアノテーションの欠如に制限されている。
このギャップを埋めるために、私たちはX-AIGDという名のeXplainable AI生成画像検出のためのきめ細かいベンチマークを導入しました。
これらの包括的なアノテーションは、詳細な解釈可能性の評価とモデル決定プロセスに関する深い洞察を促進する。
1)既存のAIGI検出器は、最も基本的な歪みレベルであっても、知覚的アーティファクトへの無視的依存を示す。
2)AIGI検出器は特定の人工物を特定するために訓練することができるが,その判断は解釈不能な特徴に基づいている。
3) モデル注意をアーティファクト領域と明確に整合させることにより,検出器の解釈可能性と一般化が向上する。
データとコードは、https://github.com/Coxy7/X-AIGD.comで入手できる。
関連論文リスト
- VAAS: Vision-Attention Anomaly Scoring for Image Manipulation Detection in Digital Forensics [0.0]
AI駆動画像生成の最近の進歩は、法医学的調査におけるデジタル証拠の正当性を検証するための新たな課題をもたらしている。
現代の生成モデルは、画素や圧縮アーチファクトに基づいた従来の検出器を避ける視覚的に一貫した偽造物を生成することができる。
本稿では,グローバルアテンションに基づく異常推定を統合した新しいデュアルモジュール・フレームワークであるVision-Attention Anomaly Scoring(VAAS)を紹介する。
論文 参考訳(メタデータ) (2025-12-17T15:05:40Z) - Task-Model Alignment: A Simple Path to Generalizable AI-Generated Image Detection [57.17054616831796]
視覚言語モデル(VLM)はAI生成画像(AIGI)検出にますます採用されている。
VLMのアンダーパフォーマンスはタスクモデルのミスアライメントに起因する。
本稿では,AIGI検出を2つの補完的タスクとして形式化する。
論文 参考訳(メタデータ) (2025-12-07T09:19:00Z) - Self-Supervised AI-Generated Image Detection: A Camera Metadata Perspective [80.10217707456046]
カメラメタデータを利用したAI生成画像検出のための自己教師型アプローチを提案する。
分類型EXIFタグを分類することにより,撮影画像のみに特徴抽出器を訓練する。
我々の検出器は、電界中のサンプルに対して強力な一般化と、一般的な良性イメージの摂動に対する堅牢性を提供する。
論文 参考訳(メタデータ) (2025-12-05T11:53:18Z) - Semantic Visual Anomaly Detection and Reasoning in AI-Generated Images [96.43608872116347]
AnomReasonは4倍のtextbfAnomAgentのような構造化アノテーションを備えた大規模ベンチマーク
AnomReasonとAnomAgentは、AI生成画像の意味的妥当性の測定と改善の基盤となっている。
論文 参考訳(メタデータ) (2025-10-11T14:09:24Z) - ForenX: Towards Explainable AI-Generated Image Detection with Multimodal Large Language Models [82.04858317800097]
ForenXは画像の真正性を識別するだけでなく、人間の思考に共鳴する説明を提供する新しい手法である。
ForenXは、強力なマルチモーダル大言語モデル(MLLM)を使用して、法医学的な手がかりを分析し、解釈する。
本稿では,AI生成画像における偽証拠の記述専用のデータセットであるForgReasonを紹介する。
論文 参考訳(メタデータ) (2025-08-02T15:21:26Z) - Is Artificial Intelligence Generated Image Detection a Solved Problem? [16.9828631287303]
AIGIBenchは、最先端AIGI検出器の堅牢性と一般化能力を厳格に評価するために設計されたベンチマークである。
マルチソースの一般化、画像劣化に対する堅牢性、データ拡張に対する敏感性、テスト時間前処理の影響の4つのコアタスクを通じて、現実世界の課題をシミュレートする。
ソーシャルメディアやAIアートプラットフォームから収集された実世界のサンプルとともに、高度な画像生成技術と広く採用されている画像生成技術の両方にまたがる、23の多様なフェイクイメージサブセットが含まれている。
論文 参考訳(メタデータ) (2025-05-18T10:00:39Z) - FakeScope: Large Multimodal Expert Model for Transparent AI-Generated Image Forensics [66.14786900470158]
本稿では,AIによる画像鑑定に適した専門家マルチモーダルモデル(LMM)であるFakeScopeを提案する。
FakeScopeはAI合成画像を高精度に識別し、リッチで解釈可能なクエリ駆動の法医学的な洞察を提供する。
FakeScopeは、クローズドエンドとオープンエンドの両方の法医学的シナリオで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-03-31T16:12:48Z) - Towards Generalizable Forgery Detection and Reasoning [23.858913560970866]
We formulate detection and explanation as a unified forgery Detection and Reasoning task (FDR-Task)
マルチモーダル・フォージェリー推論データセット (MMFR-Dataset) は10つの生成モデルにわたる120K画像を含む大規模データセットであり, フォージェリー属性には378Kの推論アノテーションがある。
複数の生成モデルに対する実験により、FakeReasoningは堅牢な一般化を実現し、検出タスクと推論タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-03-27T06:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。