論文の概要: TextureCrop: Enhancing Synthetic Image Detection through Texture-based Cropping
- arxiv url: http://arxiv.org/abs/2407.15500v2
- Date: Mon, 16 Dec 2024 10:53:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:50:28.782819
- Title: TextureCrop: Enhancing Synthetic Image Detection through Texture-based Cropping
- Title(参考訳): TextureCrop: テクスチャベースのクロップによる合成画像検出の強化
- Authors: Despina Konstantinidou, Christos Koutlis, Symeon Papadopoulos,
- Abstract要約: 合成画像検出(SID)法は、オンラインのAI生成コンテンツを識別するために不可欠である。
我々は,事前学習した任意のSIDモデルにプラグインして,その性能を向上させるイメージ前処理コンポーネントであるTextureCropを提案する。
実験結果は、中央の収穫に比べてAUCが6.1%改善し、リサイズに比べて15%改善したことを示している。
- 参考スコア(独自算出の注目度): 12.315110846944906
- License:
- Abstract: Generative AI technologies produce increasingly realistic imagery, which, despite its potential for creative applications, can also be misused to produce misleading and harmful content. This renders Synthetic Image Detection (SID) methods essential for identifying AI-generated content online. State-of-the-art SID methods typically resize or center-crop input images due to architectural or computational constraints, which hampers the detection of artifacts that appear in high-resolution images. To address this limitation, we propose TextureCrop, an image pre-processing component that can be plugged in any pre-trained SID model to improve its performance. By focusing on high-frequency image parts where generative artifacts are prevalent, TextureCrop enhances SID performance with manageable memory requirements. Experimental results demonstrate a consistent improvement in AUC across various detectors by 6.1% compared to center cropping and by 15% compared to resizing, across high-resolution images from the Forensynths, Synthbuster and TWIGMA datasets.
- Abstract(参考訳): 創造的AI技術は、クリエイティブな応用の可能性にもかかわらず、誤解を招く有害なコンテンツを生み出すために誤用される可能性がある、ますます現実的なイメージを生み出す。
これにより、AI生成コンテンツをオンラインで識別するのに不可欠なSID(Synthetic Image Detection)メソッドが描画される。
最先端のSID手法は、アーキテクチャ上の制約や計算上の制約により、高解像度の画像に現れるアーティファクトの検出を妨げているため、通常、リサイズまたはセンタークロップの入力イメージをリサイズする。
この制限に対処するため,事前に訓練された任意のSIDモデルにプラグインして,その性能を向上させるイメージ前処理コンポーネントであるTextureCropを提案する。
生成アーティファクトが普及している高周波画像部品に注目することにより、TextureCropは管理可能なメモリ要件でSIDパフォーマンスを向上させる。
実験結果は、Forensynths、Synthbuster、TWIGMAデータセットの高解像度画像に対して、中央の収穫に比べてAUCが6.1%改善し、リサイズよりも15%改善したことを示している。
関連論文リスト
- A Sanity Check for AI-generated Image Detection [49.08585395873425]
我々はAI生成画像を検出するAI生成画像検出装置(AI生成画像検出装置)を提案する。
AIDEは最先端の手法を+3.5%、+4.6%改善した。
論文 参考訳(メタデータ) (2024-06-27T17:59:49Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - SIDBench: A Python Framework for Reliably Assessing Synthetic Image Detection Methods [9.213926755375024]
完全合成画像の作成は、ユニークな課題である。
ベンチマークデータセットの実験結果と、ワイルドなメソッドのパフォーマンスの間には、大きなギャップがしばしばあります。
本稿では,いくつかの最先端SIDモデルを統合するベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-29T09:50:16Z) - Leveraging Representations from Intermediate Encoder-blocks for Synthetic Image Detection [13.840950434728533]
SID(State-of-the-art Synthetic Image Detection)研究は、基礎モデルからの特徴抽出の利点を強く証明している。
軽量ネットワークを介してCLIPの画像エンコーダの中間トランスフォーマーブロックから抽出した画像表現を利用する。
本手法は,20個のテストデータセットで評価し,平均+10.6%の絶対性能向上を示すことにより,最先端の手法と比較した。
論文 参考訳(メタデータ) (2024-02-29T12:18:43Z) - Hybrid Training of Denoising Networks to Improve the Texture Acutance of Digital Cameras [3.400056739248712]
本稿では,自然画像と合成画像の両方に依存した画像復元ニューラルネットワークの混合訓練手法を提案する。
提案手法の有効性は,RGB画像のノイズ化とRAW画像のフル開発の両方において実証され,実際の撮像装置のテクスチャ精度の体系的改善への道のりが開かれた。
論文 参考訳(メタデータ) (2024-02-20T10:47:06Z) - An efficient dual-branch framework via implicit self-texture enhancement for arbitrary-scale histopathology image super-resolution [18.881480825169053]
Inlicit Self-Texture Enhancement-based dual-branch framework (ISTE) を提案する。
ISTEは、様々なスケーリング要因にわたる既存の固定スケールおよび任意のスケールのSRアルゴリズムより優れている。
論文 参考訳(メタデータ) (2024-01-28T10:00:45Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Exploring Resolution and Degradation Clues as Self-supervised Signal for
Low Quality Object Detection [77.3530907443279]
劣化した低解像度画像中の物体を検出するための,新しい自己教師型フレームワークを提案する。
本手法は, 既存手法と比較して, 異変劣化状況に直面する場合に比べ, 優れた性能を示した。
論文 参考訳(メタデータ) (2022-08-05T09:36:13Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。