論文の概要: Learning Universal Features for Generalizable Image Forgery Localization
- arxiv url: http://arxiv.org/abs/2504.07462v1
- Date: Thu, 10 Apr 2025 05:20:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:20:53.759173
- Title: Learning Universal Features for Generalizable Image Forgery Localization
- Title(参考訳): 一般化可能な画像フォージェリーローカライゼーションのためのユニバーサル特徴の学習
- Authors: Hengrun Zhao, Yunzhi Zhuge, Yifan Wang, Lijun Wang, Huchuan Lu, Yu Zeng,
- Abstract要約: GIFL(Generalizable Image Forgery Localization)へのアプローチを提案する。
我々のモデルは、目に見える偽造物と見えない偽造物の両方を検出することができ、生成AIの時代において、偽情報に対抗するためのより実践的で効率的なソリューションを提供する。
本手法は,特定の偽造物の痕跡ではなく,プリスタンコンテンツから一般的な特徴を学習することに焦点を当てる。
- 参考スコア(独自算出の注目度): 53.666188847170915
- License:
- Abstract: In recent years, advanced image editing and generation methods have rapidly evolved, making detecting and locating forged image content increasingly challenging. Most existing image forgery detection methods rely on identifying the edited traces left in the image. However, because the traces of different forgeries are distinct, these methods can identify familiar forgeries included in the training data but struggle to handle unseen ones. In response, we present an approach for Generalizable Image Forgery Localization (GIFL). Once trained, our model can detect both seen and unseen forgeries, providing a more practical and efficient solution to counter false information in the era of generative AI. Our method focuses on learning general features from the pristine content rather than traces of specific forgeries, which are relatively consistent across different types of forgeries and therefore can be used as universal features to locate unseen forgeries. Additionally, as existing image forgery datasets are still dominated by traditional hand-crafted forgeries, we construct a new dataset consisting of images edited by various popular deep generative image editing methods to further encourage research in detecting images manipulated by deep generative models. Extensive experimental results show that the proposed approach outperforms state-of-the-art methods in the detection of unseen forgeries and also demonstrates competitive results for seen forgeries. The code and dataset are available at https://github.com/ZhaoHengrun/GIFL.
- Abstract(参考訳): 近年,高度な画像編集・生成手法が急速に進化し,偽画像の検出・配置がますます困難になっている。
既存の画像偽造検出方法の多くは、画像に残されている編集されたトレースを特定することに依存している。
しかし、異なる偽造の痕跡が異なるため、これらの手法は訓練データに含まれる精通した偽造品を特定することができるが、見知らぬ偽造品を扱うのに苦労する。
GIFL(Generalizable Image Forgery Localization)に対するアプローチを提案する。
トレーニングを済ませば、私たちのモデルは、見えない偽造物と見えない偽造物の両方を検出することができ、生成AIの時代において、偽情報に対抗するためのより実践的で効率的なソリューションを提供する。
提案手法は, 特定の偽造物の痕跡ではなく, 基本的内容から一般的な特徴を学習することに焦点を当て, 異なる偽造物の種類で比較的一貫したものであり, 不可視な偽造物を見つけるための普遍的特徴として利用することができる。
さらに,既存の画像偽造データセットは依然として手作りの偽造品が支配しているため,様々な画像編集手法によって編集された画像からなる新しいデータセットを構築し,深部生成モデルによって操作された画像の検出についてさらなる研究を奨励する。
大規模な実験結果から,提案手法は未知の偽造品の検出において最先端の手法よりも優れており,また,偽造品の競合効果も示している。
コードとデータセットはhttps://github.com/ZhaoHengrun/GIFLで公開されている。
関連論文リスト
- Knowledge-Guided Prompt Learning for Deepfake Facial Image Detection [54.26588902144298]
ディープフェイク顔画像検出のための知識誘導型プロンプト学習法を提案する。
具体的には、学習可能なプロンプトの最適化を導くための専門家知識として、大規模言語モデルから偽造関連プロンプトを抽出する。
提案手法は最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2025-01-01T02:18:18Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - Weakly-supervised deepfake localization in diffusion-generated images [4.548755617115687]
本稿では,Xception ネットワークをバックボーンアーキテクチャとして用いた弱教師付きローカライズ問題を提案する。
本研究では,(局所スコアに基づく)最良動作検出法は,データセットやジェネレータのミスマッチよりも,より緩やかな監視に敏感であることを示す。
論文 参考訳(メタデータ) (2023-11-08T10:27:36Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - Deep Image Fingerprint: Towards Low Budget Synthetic Image Detection and Model Lineage Analysis [8.777277201807351]
本研究では,実際の画像と区別できない画像の新たな検出方法を提案する。
本手法は、既知の生成モデルから画像を検出し、微調整された生成モデル間の関係を確立することができる。
本手法は,Stable Diffusion とMidversa が生成した画像に対して,最先端の事前学習検出手法に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2023-03-19T20:31:38Z) - Data-driven Meta-set Based Fine-Grained Visual Classification [61.083706396575295]
本稿では, ノイズの多いWeb画像に対して, 微粒化認識のためのデータ駆動型メタセットベースアプローチを提案する。
具体的には、少量のクリーンなメタセットでガイドされ、メタラーニング方式で選択ネットを訓練し、分布内および分布外ノイズ画像の識別を行う。
論文 参考訳(メタデータ) (2020-08-06T03:04:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。