論文の概要: AI-Generated Image Detectors Overrely on Global Artifacts: Evidence from Inpainting Exchange
- arxiv url: http://arxiv.org/abs/2602.00192v1
- Date: Fri, 30 Jan 2026 09:14:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.0453
- Title: AI-Generated Image Detectors Overrely on Global Artifacts: Evidence from Inpainting Exchange
- Title(参考訳): グローバルアーティファクトに過度に注目するAI生成イメージ検出 - ペイント交換による証拠
- Authors: Elif Nebioglu, Emirhan Bilgiç, Adrian Popescu,
- Abstract要約: VAEをベースとした再構成は、未編集領域を含む画像全体にわたって微妙に広範にスペクトルシフトを引き起こす。
Inpainting Exchange (INP-X) は、編集領域外の元のピクセルを復元し、すべての合成コンテンツを保存する操作である。
本研究の成果は,コンテンツ認識検出の必要性を浮き彫りにするものである。
- 参考スコア(独自算出の注目度): 1.2944480428047747
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern deep learning-based inpainting enables realistic local image manipulation, raising critical challenges for reliable detection. However, we observe that current detectors primarily rely on global artifacts that appear as inpainting side effects, rather than on locally synthesized content. We show that this behavior occurs because VAE-based reconstruction induces a subtle but pervasive spectral shift across the entire image, including unedited regions. To isolate this effect, we introduce Inpainting Exchange (INP-X), an operation that restores original pixels outside the edited region while preserving all synthesized content. We create a 90K test dataset including real, inpainted, and exchanged images to evaluate this phenomenon. Under this intervention, pretrained state-of-the-art detectors, including commercial ones, exhibit a dramatic drop in accuracy (e.g., from 91\% to 55\%), frequently approaching chance level. We provide a theoretical analysis linking this behavior to high-frequency attenuation caused by VAE information bottlenecks. Our findings highlight the need for content-aware detection. Indeed, training on our dataset yields better generalization and localization than standard inpainting. Our dataset and code are publicly available at https://github.com/emirhanbilgic/INP-X.
- Abstract(参考訳): 最新のディープラーニングベースの塗装は、現実的な局所的な画像操作を可能にし、信頼性の高い検出のための重要な課題を提起する。
しかし、現在の検出器は、局所的に合成された内容よりも、着色する副作用として現れる地球規模の人工物に大きく依存している。
VAEをベースとした再構成は、未編集領域を含む画像全体にわたって微妙に広範にスペクトルシフトを引き起こすため、この挙動が生じることを示す。
Inpainting Exchange (INP-X) は、編集領域外にある元のピクセルを復元し、すべての合成コンテンツを保存する操作である。
我々は、この現象を評価するために、実際の、塗装された、交換された画像を含む90Kのテストデータセットを作成します。
この介入の下では、商業品を含む事前訓練された最先端検出器は、精度の劇的な低下(例:91\%から55\%)を示し、しばしばチャンスレベルに近づく。
本稿では、VAE情報ボトルネックに起因する高周波減衰と、この挙動をリンクする理論的解析を行う。
本研究は,コンテンツ認識検出の必要性を浮き彫りにした。
実際、私たちのデータセットのトレーニングは、標準的なインペイントよりも一般化とローカライゼーションが優れている。
私たちのデータセットとコードはhttps://github.com/emirbilgic/INP-X.comで公開されています。
関連論文リスト
- Detecting Localized Deepfakes: How Well Do Synthetic Image Detectors Handle Inpainting? [2.6743542260081408]
生成AIは、塗装や領域レベルの編集を含む、非常に現実的なイメージ操作を可能にした。
これらのアプローチは、元の視覚的コンテキストの大部分を保持し、サイバーセキュリティ関連脅威シナリオでますます活用されている。
この研究は、完全に合成された画像のディープフェイク検出のために訓練された最先端検出器の系統的評価を示す。
論文 参考訳(メタデータ) (2025-12-18T15:54:51Z) - Zooming In on Fakes: A Novel Dataset for Localized AI-Generated Image Detection with Forgery Amplification Approach [69.01456182499486]
textbfBR-Genは、さまざまなシーン認識アノテーションを備えた15万のローカル鍛造イメージの大規模なデータセットである。
textbfNFA-ViTはノイズ誘導フォージェリ増幅ビジョン変換器で、ローカライズされたフォージェリの検出を強化する。
論文 参考訳(メタデータ) (2025-04-16T09:57:23Z) - PIGUIQA: A Physical Imaging Guided Perceptual Framework for Underwater Image Quality Assessment [59.9103803198087]
水中画像品質評価(UIQA)のための物理画像ガイド型知覚フレームワークを提案する。
水中放射移動理論を応用して、物理に基づく画像推定を統合して、これらの歪みの定量的な測定値を確立する。
提案モデルは,画像品質のスコアを正確に予測し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-12-20T03:31:45Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - Perceptual Artifacts Localization for Image Synthesis Tasks [59.638307505334076]
我々は10,168個の画像からなる新しいデータセットを導入し,それぞれに知覚的アーティファクトラベルを付加した。
提案したデータセットに基づいてトレーニングされたセグメンテーションモデルは、さまざまなタスクにまたがるアーティファクトを効果的にローカライズする。
生成した画像の知覚的アーティファクトをシームレスに修正する,革新的なズームイン・インペインティングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-10-09T10:22:08Z) - TruFor: Leveraging all-round clues for trustworthy image forgery
detection and localization [17.270110456445806]
TruForは、さまざまなイメージ操作方法に適用可能な、法医学的なフレームワークである。
変換器をベースとした融合アーキテクチャにより,高レベルのトレースと低レベルのトレースの両方を抽出する。
当社の手法は,安価なフェイクとディープフェイク操作の両方を確実に検出し,ローカライズすることができる。
論文 参考訳(メタデータ) (2022-12-21T11:49:43Z) - Noise Doesn't Lie: Towards Universal Detection of Deep Inpainting [42.189768203036394]
本研究は, ディープ・インパインティングの普遍的検出に向けた最初の試みであり, 検出ネットワークの一般化を図っている。
提案手法は,既存の検出手法を大きなマージンで上回り,未確認の深層塗膜技術に最適化する。
論文 参考訳(メタデータ) (2021-06-03T01:29:29Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Inpainting Transformer for Anomaly Detection [0.0]
Inpainting Transformer(InTra)は、多数のイメージパッチにカバーパッチを塗布するように訓練されている。
InTraは、検出とローカライゼーションのためのMVTec ADデータセットの最先端結果よりも優れている。
論文 参考訳(メタデータ) (2021-04-28T17:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。