論文の概要: Artifact Feature Purification for Cross-domain Detection of AI-generated Images
- arxiv url: http://arxiv.org/abs/2403.11172v1
- Date: Sun, 17 Mar 2024 11:17:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 18:15:50.855245
- Title: Artifact Feature Purification for Cross-domain Detection of AI-generated Images
- Title(参考訳): AI生成画像のクロスドメイン検出のためのアーチファクト特性の浄化
- Authors: Zheling Meng, Bo Peng, Jing Dong, Tieniu Tan,
- Abstract要約: 既存の画像検出方法は、ドメイン外ジェネレータや画像シーンに直面すると、性能低下に悩まされる。
本稿では, 人工物抽出ネットワーク(APN)を提案し, 明示的で暗黙的な浄化プロセスを通じて生成した画像から人工物抽出を容易にする。
クロスジェネレータ検出では、APNの平均精度は、GenImageデータセットの以前の10メソッドよりも5.6% 16.4%高く、DiffusionForensicsデータセットの1.7% 50.1%である。
- 参考スコア(独自算出の注目度): 38.18870936370117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the era of AIGC, the fast development of visual content generation technologies, such as diffusion models, bring potential security risks to our society. Existing generated image detection methods suffer from performance drop when faced with out-of-domain generators and image scenes. To relieve this problem, we propose Artifact Purification Network (APN) to facilitate the artifact extraction from generated images through the explicit and implicit purification processes. For the explicit one, a suspicious frequency-band proposal method and a spatial feature decomposition method are proposed to extract artifact-related features. For the implicit one, a training strategy based on mutual information estimation is proposed to further purify the artifact-related features. Experiments show that for cross-generator detection, the average accuracy of APN is 5.6% ~ 16.4% higher than the previous 10 methods on GenImage dataset and 1.7% ~ 50.1% on DiffusionForensics dataset. For cross-scene detection, APN maintains its high performance. Via visualization analysis, we find that the proposed method extracts flexible forgery patterns and condenses the forgery information diluted in irrelevant features. We also find that the artifact features APN focuses on across generators and scenes are global and diverse. The code will be available on GitHub.
- Abstract(参考訳): AIGCの時代、拡散モデルのような視覚コンテンツ生成技術の急速な発展は、社会に潜在的なセキュリティリスクをもたらします。
既存の画像検出方法は、ドメイン外ジェネレータや画像シーンに直面すると、性能低下に悩まされる。
この問題を解消するために, 明示的で暗黙的な浄化プロセスを通じて生成した画像からの人工物抽出を容易にするArtifact Purification Network (APN)を提案する。
本研究では,不審な周波数帯域提案法と空間的特徴分解法を提案し,人工物に関連する特徴を抽出した。
暗黙的に、相互情報推定に基づくトレーニング戦略を提案し、アーティファクトに関連する特徴をさらに浄化する。
実験により、クロスジェネレータ検出において、APNの平均精度は、GenImageデータセットの以前の10のメソッドよりも5.6%から16.4%高く、DiffusionForensicsデータセットの1.7%から50.1%高いことが示されている。
クロスシーン検出のために、APNは高性能を維持している。
可視化分析により,提案手法はフレキシブルな偽造パターンを抽出し,無関係な特徴で希釈された偽造情報を凝縮することがわかった。
また、APNがジェネレータやシーンにフォーカスするアーティファクト機能は、グローバルで多様であることもわかりました。
コードはGitHubで入手できる。
関連論文リスト
- Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - FSBI: Deepfakes Detection with Frequency Enhanced Self-Blended Images [17.707379977847026]
本稿では、ディープフェイク検出のための周波数強調自己ブレンド画像手法を提案する。
提案手法はFF++とCeleb-DFデータセットで評価されている。
論文 参考訳(メタデータ) (2024-06-12T20:15:00Z) - DA-HFNet: Progressive Fine-Grained Forgery Image Detection and Localization Based on Dual Attention [12.36906630199689]
DA-HFNet鍛造画像データセットをテキストまたは画像支援GANおよび拡散モデルで作成する。
我々のゴールは、階層的なプログレッシブネットワークを使用して、異なるスケールの偽造物を検出およびローカライゼーションするために捕獲することである。
論文 参考訳(メタデータ) (2024-06-03T16:13:33Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Perceptual Artifacts Localization for Image Synthesis Tasks [59.638307505334076]
我々は10,168個の画像からなる新しいデータセットを導入し,それぞれに知覚的アーティファクトラベルを付加した。
提案したデータセットに基づいてトレーニングされたセグメンテーションモデルは、さまざまなタスクにまたがるアーティファクトを効果的にローカライズする。
生成した画像の知覚的アーティファクトをシームレスに修正する,革新的なズームイン・インペインティングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-10-09T10:22:08Z) - Exploring Incompatible Knowledge Transfer in Few-shot Image Generation [107.81232567861117]
少ないショット画像生成は、いくつかの参照サンプルを使用して、ターゲットドメインから多彩で高忠実な画像を生成することを学習する。
既存のF SIGメソッドは、ソースジェネレータから事前の知識を選択し、保存し、転送し、ターゲットジェネレータを学習する。
本稿では,知識保存を補完する操作であり,軽量プルーニング方式で実装した知識トランケーションを提案する。
論文 参考訳(メタデータ) (2023-04-15T14:57:15Z) - High-Resolution UAV Image Generation for Sorghum Panicle Detection [23.88932181375298]
本稿では,データ拡張のためのGAN(Generative Adversarial Network)からの合成トレーニング画像を用いて,ソルガムパニックの検出とカウントの性能を向上させる手法を提案する。
提案手法は,実際のUAV RGB画像の地上真実データセットを限定した画像から画像への変換GANを用いて,パニックラベルを用いた合成高解像度UAV RGB画像を生成することができる。
論文 参考訳(メタデータ) (2022-05-08T20:26:56Z) - DeepFake Detection by Analyzing Convolutional Traces [0.0]
我々は,人間の顔のディープフェイクの分析に着目し,新しい検出方法を提案する。
提案手法は, 予測最大化(EM)アルゴリズムを用いて, 基礎となる畳み込み生成過程をモデル化するための局所的特徴の集合を抽出する。
その結果、異なるアーキテクチャと対応する生成過程を区別する手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-22T09:02:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。