論文の概要: Detecting Localized Deepfakes: How Well Do Synthetic Image Detectors Handle Inpainting?
- arxiv url: http://arxiv.org/abs/2512.16688v1
- Date: Thu, 18 Dec 2025 15:54:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.139199
- Title: Detecting Localized Deepfakes: How Well Do Synthetic Image Detectors Handle Inpainting?
- Title(参考訳): 局所的なディープフェイクの検出: 合成画像検出器は塗料をどう処理するか?
- Authors: Serafino Pandolfini, Lorenzo Pellegrini, Matteo Ferrara, Davide Maltoni,
- Abstract要約: 生成AIは、塗装や領域レベルの編集を含む、非常に現実的なイメージ操作を可能にした。
これらのアプローチは、元の視覚的コンテキストの大部分を保持し、サイバーセキュリティ関連脅威シナリオでますます活用されている。
この研究は、完全に合成された画像のディープフェイク検出のために訓練された最先端検出器の系統的評価を示す。
- 参考スコア(独自算出の注目度): 2.6743542260081408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid progress of generative AI has enabled highly realistic image manipulations, including inpainting and region-level editing. These approaches preserve most of the original visual context and are increasingly exploited in cybersecurity-relevant threat scenarios. While numerous detectors have been proposed for identifying fully synthetic images, their ability to generalize to localized manipulations remains insufficiently characterized. This work presents a systematic evaluation of state-of-the-art detectors, originally trained for the deepfake detection on fully synthetic images, when applied to a distinct challenge: localized inpainting detection. The study leverages multiple datasets spanning diverse generators, mask sizes, and inpainting techniques. Our experiments show that models trained on a large set of generators exhibit partial transferability to inpainting-based edits and can reliably detect medium- and large-area manipulations or regeneration-style inpainting, outperforming many existing ad hoc detection approaches.
- Abstract(参考訳): 生成AIの急速な進歩により、インペイントや領域レベルの編集など、非常に現実的な画像操作が可能になった。
これらのアプローチは、元の視覚的コンテキストの大部分を保持し、サイバーセキュリティ関連脅威シナリオでますます活用されている。
完全合成画像を特定するための多くの検出器が提案されているが、局所的な操作に一般化する能力は依然として不十分である。
この研究は、完全に合成された画像のディープフェイク検出のために訓練された最先端検出器の系統的評価を示す。
この研究は、多様なジェネレータ、マスクサイズ、塗装技術にまたがる複数のデータセットを活用している。
実験の結果, 大規模な発電機で訓練したモデルでは, 塗り絵による編集に部分的変換性を示し, 中・大面積の操作や再生スタイルの塗り絵を確実に検出でき, 既存の多くのアドホック検出手法よりも優れていることがわかった。
関連論文リスト
- CapsFake: A Multimodal Capsule Network for Detecting Instruction-Guided Deepfakes [3.2194551406014886]
ディープフェイク技術は、微妙でコンテキスト対応の操作を可能にすることによって、デジタル画像の完全性を脅かす。
本稿では,低レベルのカプセルを視覚,テキスト,周波数領域のモダリティから統合することにより,このような深層画像編集を検出するために設計されたCapsFakeを提案する。
競争的なルーティング機構を通じて予測される高レベルカプセルは、局所的な特徴を動的に集約し、精密に操作された領域を識別する。
論文 参考訳(メタデータ) (2025-04-27T12:31:47Z) - DETER: Detecting Edited Regions for Deterring Generative Manipulations [31.85788472041527]
我々は、編集済み画像領域を検出できる大規模なデータセットであるDETERを紹介する。
Deterには、最先端の4つのジェネレータと3つの編集操作によって操作された30万の画像が含まれている。
人間による研究では、DETERのヒトの深層偽検出率は、他の偽のデータセットよりも20.4%低いことが確認されている。
論文 参考訳(メタデータ) (2023-12-16T20:38:02Z) - Generalized Deepfakes Detection with Reconstructed-Blended Images and
Multi-scale Feature Reconstruction Network [14.749857283918157]
未確認データセットに対する堅牢な適用性を有するブレンドベース検出手法を提案する。
実験により、この手法により、未知のデータ上でのクロスマニピュレーション検出とクロスデータセット検出の両方のパフォーマンスが向上することが示された。
論文 参考訳(メタデータ) (2023-12-13T09:49:15Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - ObjectFormer for Image Manipulation Detection and Localization [118.89882740099137]
画像操作の検出とローカライズを行うObjectFormerを提案する。
画像の高周波特徴を抽出し,マルチモーダルパッチの埋め込みとしてRGB特徴と組み合わせる。
各種データセットについて広範な実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-03-28T12:27:34Z) - Detect and Locate: A Face Anti-Manipulation Approach with Semantic and
Noise-level Supervision [67.73180660609844]
本稿では,画像中の偽造顔を効率的に検出する,概念的にシンプルだが効果的な方法を提案する。
提案手法は,画像に関する意味の高い意味情報を提供するセグメンテーションマップに依存する。
提案モデルでは,最先端検出精度と顕著なローカライゼーション性能を実現する。
論文 参考訳(メタデータ) (2021-07-13T02:59:31Z) - Noise Doesn't Lie: Towards Universal Detection of Deep Inpainting [42.189768203036394]
本研究は, ディープ・インパインティングの普遍的検出に向けた最初の試みであり, 検出ネットワークの一般化を図っている。
提案手法は,既存の検出手法を大きなマージンで上回り,未確認の深層塗膜技術に最適化する。
論文 参考訳(メタデータ) (2021-06-03T01:29:29Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - What makes fake images detectable? Understanding properties that
generalize [55.4211069143719]
深層ネットワークは、博士画像の微妙なアーティファクトを拾い上げることができる。
我々は、偽画像のどの特性が検出可能かを理解することを模索する。
検出可能な特性を誇張する手法を示す。
論文 参考訳(メタデータ) (2020-08-24T17:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。