論文の概要: TextureCrop: Enhancing Synthetic Image Detection through Texture-based Cropping
- arxiv url: http://arxiv.org/abs/2407.15500v2
- Date: Mon, 16 Dec 2024 10:53:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:50:28.782819
- Title: TextureCrop: Enhancing Synthetic Image Detection through Texture-based Cropping
- Title(参考訳): TextureCrop: テクスチャベースのクロップによる合成画像検出の強化
- Authors: Despina Konstantinidou, Christos Koutlis, Symeon Papadopoulos,
- Abstract要約: 合成画像検出(SID)法は、オンラインのAI生成コンテンツを識別するために不可欠である。
我々は,事前学習した任意のSIDモデルにプラグインして,その性能を向上させるイメージ前処理コンポーネントであるTextureCropを提案する。
実験結果は、中央の収穫に比べてAUCが6.1%改善し、リサイズに比べて15%改善したことを示している。
- 参考スコア(独自算出の注目度): 12.315110846944906
- License:
- Abstract: Generative AI technologies produce increasingly realistic imagery, which, despite its potential for creative applications, can also be misused to produce misleading and harmful content. This renders Synthetic Image Detection (SID) methods essential for identifying AI-generated content online. State-of-the-art SID methods typically resize or center-crop input images due to architectural or computational constraints, which hampers the detection of artifacts that appear in high-resolution images. To address this limitation, we propose TextureCrop, an image pre-processing component that can be plugged in any pre-trained SID model to improve its performance. By focusing on high-frequency image parts where generative artifacts are prevalent, TextureCrop enhances SID performance with manageable memory requirements. Experimental results demonstrate a consistent improvement in AUC across various detectors by 6.1% compared to center cropping and by 15% compared to resizing, across high-resolution images from the Forensynths, Synthbuster and TWIGMA datasets.
- Abstract(参考訳): 創造的AI技術は、クリエイティブな応用の可能性にもかかわらず、誤解を招く有害なコンテンツを生み出すために誤用される可能性がある、ますます現実的なイメージを生み出す。
これにより、AI生成コンテンツをオンラインで識別するのに不可欠なSID(Synthetic Image Detection)メソッドが描画される。
最先端のSID手法は、アーキテクチャ上の制約や計算上の制約により、高解像度の画像に現れるアーティファクトの検出を妨げているため、通常、リサイズまたはセンタークロップの入力イメージをリサイズする。
この制限に対処するため,事前に訓練された任意のSIDモデルにプラグインして,その性能を向上させるイメージ前処理コンポーネントであるTextureCropを提案する。
生成アーティファクトが普及している高周波画像部品に注目することにより、TextureCropは管理可能なメモリ要件でSIDパフォーマンスを向上させる。
実験結果は、Forensynths、Synthbuster、TWIGMAデータセットの高解像度画像に対して、中央の収穫に比べてAUCが6.1%改善し、リサイズよりも15%改善したことを示している。
関連論文リスト
- Time Step Generating: A Universal Synthesized Deepfake Image Detector [0.4488895231267077]
汎用合成画像検出器 Time Step Generating (TSG) を提案する。
TSGは、事前訓練されたモデルの再構築能力、特定のデータセット、サンプリングアルゴリズムに依存していない。
我々は,提案したTSGを大規模GenImageベンチマークで検証し,精度と一般化性の両方において大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-11-17T09:39:50Z) - Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Assessing UHD Image Quality from Aesthetics, Distortions, and Saliency [51.36674160287799]
我々は3つの視点からUHD画像の品質を評価するためにマルチブランチディープニューラルネットワーク(DNN)を設計する。
UHD画像から低解像度画像から美的特徴を抽出する。
UHD画像から抽出したミニパッチからなる断片画像を用いて, 技術的歪みを測定する。
UHD画像の塩分含有量を検知し、収穫し、塩分領域から品質認識特徴を抽出する。
論文 参考訳(メタデータ) (2024-09-01T15:26:11Z) - Improving Synthetic Image Detection Towards Generalization: An Image Transformation Perspective [45.210030086193775]
現在の合成画像検出(SID)パイプラインは、主に普遍的なアーティファクト機能を構築することを目的としている。
3つの簡単な画像変換を持つ軽量かつ効率的な検出器SAFEを提案する。
我々のパイプラインは、新しい最先端のパフォーマンスを実現し、既存の手法に対する平均精度は4.5%、平均精度は2.9%向上した。
論文 参考訳(メタデータ) (2024-08-13T09:01:12Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Deepfake Sentry: Harnessing Ensemble Intelligence for Resilient Detection and Generalisation [0.8796261172196743]
本稿では,持続的かつ積極的なディープフェイクトレーニング強化ソリューションを提案する。
我々は、ディープフェイクジェネレータモデルによって導入されたアーティファクトの効果を模倣するオートエンコーダのプールを採用する。
実験の結果,提案するアンサンブル・オートエンコーダに基づくデータ拡張学習手法が一般化の点で改善されていることがわかった。
論文 参考訳(メタデータ) (2024-03-29T19:09:08Z) - Hybrid Training of Denoising Networks to Improve the Texture Acutance of Digital Cameras [3.400056739248712]
本稿では,自然画像と合成画像の両方に依存した画像復元ニューラルネットワークの混合訓練手法を提案する。
提案手法の有効性は,RGB画像のノイズ化とRAW画像のフル開発の両方において実証され,実際の撮像装置のテクスチャ精度の体系的改善への道のりが開かれた。
論文 参考訳(メタデータ) (2024-02-20T10:47:06Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Exploring Resolution and Degradation Clues as Self-supervised Signal for
Low Quality Object Detection [77.3530907443279]
劣化した低解像度画像中の物体を検出するための,新しい自己教師型フレームワークを提案する。
本手法は, 既存手法と比較して, 異変劣化状況に直面する場合に比べ, 優れた性能を示した。
論文 参考訳(メタデータ) (2022-08-05T09:36:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。