論文の概要: Towards Universal Fake Image Detectors that Generalize Across Generative
Models
- arxiv url: http://arxiv.org/abs/2302.10174v1
- Date: Mon, 20 Feb 2023 18:59:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 14:31:05.301701
- Title: Towards Universal Fake Image Detectors that Generalize Across Generative
Models
- Title(参考訳): 生成モデル全体で一般化するユニバーサルフェイク画像検出器を目指して
- Authors: Utkarsh Ojha, Yuheng Li, Yong Jae Lee
- Abstract要約: 実Vsフェイク分類のためのディープネットワークを訓練する既存のパラダイムは、新しい世代生成モデルから偽画像を検出するのに失敗していることを示す。
実写画像と実写画像の区別を明示的に訓練されていない特徴空間を用いて,学習せずに実写映像の分類を行うことを提案する。
- 参考スコア(独自算出の注目度): 33.783155752847506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With generative models proliferating at a rapid rate, there is a growing need
for general purpose fake image detectors. In this work, we first show that the
existing paradigm, which consists of training a deep network for real-vs-fake
classification, fails to detect fake images from newer breeds of generative
models when trained to detect GAN fake images. Upon analysis, we find that the
resulting classifier is asymmetrically tuned to detect patterns that make an
image fake. The real class becomes a sink class holding anything that is not
fake, including generated images from models not accessible during training.
Building upon this discovery, we propose to perform real-vs-fake classification
without learning; i.e., using a feature space not explicitly trained to
distinguish real from fake images. We use nearest neighbor and linear probing
as instantiations of this idea. When given access to the feature space of a
large pretrained vision-language model, the very simple baseline of nearest
neighbor classification has surprisingly good generalization ability in
detecting fake images from a wide variety of generative models; e.g., it
improves upon the SoTA by +15.07 mAP and +25.90% acc when tested on unseen
diffusion and autoregressive models.
- Abstract(参考訳): 生成モデルが急速に増殖するにつれ、汎用的な偽画像検出器の必要性が高まっている。
本研究は,実物vsフェイク分類のための深層ネットワークを訓練した既存のパラダイムが,ganフェイク画像の検出訓練において,新たな種類の生成モデルからのフェイク画像の検出に失敗したことを最初に示す。
解析すると、結果の分類器は非対称に調整され、イメージを偽造するパターンを検出する。
実際のクラスは、トレーニング中にアクセスできないモデルから生成された画像を含む、偽でないものを保持するシンククラスになる。
この発見に基づいて,実画像と偽画像とを明示的に区別する訓練を受けていない特徴空間を用いて,学習せずに実画像分類を行うことを提案する。
我々は、このアイデアのインスタンス化として、最も近い近傍と線形探索を用いる。
大きな事前訓練された視覚言語モデルの特徴空間へのアクセスが与えられたとき、近辺の分類の非常に単純なベースラインは、様々な生成モデルから偽の画像を検出するのに驚くほどよい一般化能力を持っている。
関連論文リスト
- On the Effectiveness of Dataset Alignment for Fake Image Detection [28.68129042301801]
優れた検出器は、セマンティックコンテンツ、解像度、ファイルフォーマットなどの画像特性を無視しながら、生成モデル指紋に焦点を当てるべきである。
この研究では、これらのアルゴリズムの選択に加えて、堅牢な検出器をトレーニングするためには、リアル/フェイク画像の整列したデータセットも必要である、と論じる。
そこで本研究では, LDMの家族に対して, LDMのオートエンコーダを用いて実画像の再構成を行う手法を提案する。
論文 参考訳(メタデータ) (2024-10-15T17:58:07Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - AntifakePrompt: Prompt-Tuned Vision-Language Models are Fake Image Detectors [24.78672820633581]
深層生成モデルは、偽情報や著作権侵害に対する懸念を高めながら、驚くほど偽のイメージを作成することができる。
実画像と偽画像とを区別するためにディープフェイク検出技術が開発された。
本稿では,視覚言語モデルとアクシデントチューニング技術を用いて,Antifake Promptと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-26T14:23:45Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Real Face Foundation Representation Learning for Generalized Deepfake
Detection [74.4691295738097]
ディープフェイク技術の出現は、個人のプライバシーと公共の安全に脅威をもたらすため、社会的な問題となっている。
十分な偽の顔を集めることはほぼ不可能であり、既存の検出器があらゆる種類の操作に一般化することは困難である。
本稿では,大規模な実顔データセットから一般表現を学習することを目的としたリアルフェイスファウンデーション表現学習(RFFR)を提案する。
論文 参考訳(メタデータ) (2023-03-15T08:27:56Z) - DA-FDFtNet: Dual Attention Fake Detection Fine-tuning Network to Detect
Various AI-Generated Fake Images [21.030153777110026]
ディープフェイク」のような偽画像の作成がずっと簡単になった。
近年の研究では、少量のトレーニングデータを用いて、フェイク画像や動画をより効果的に生成する、いくつかのショットラーニングが導入されている。
本研究では,操作した偽顔画像を検出するために,DA-tNet(Dual Attention Fine-tuning Network)を提案する。
論文 参考訳(メタデータ) (2021-12-22T16:25:24Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - What makes fake images detectable? Understanding properties that
generalize [55.4211069143719]
深層ネットワークは、博士画像の微妙なアーティファクトを拾い上げることができる。
我々は、偽画像のどの特性が検出可能かを理解することを模索する。
検出可能な特性を誇張する手法を示す。
論文 参考訳(メタデータ) (2020-08-24T17:50:28Z) - One-Shot GAN Generated Fake Face Detection [3.3707422585608953]
本稿では,汎用的なワンショットGAN生成顔検出手法を提案する。
提案手法は,シーン理解モデルを用いて顔から文脈外オブジェクトを抽出する。
実験の結果,文脈外の特徴の観点から,偽の顔と現実の顔とを識別できることが判明した。
論文 参考訳(メタデータ) (2020-03-27T05:51:14Z) - FDFtNet: Facing Off Fake Images using Fake Detection Fine-tuning Network [19.246576904646172]
本稿では,FaketNetと呼ばれる,軽量な微調整ニューラルネットワークアーキテクチャを提案する。
提案手法は,偽画像の検出を効果的に行うための微調整のために,数枚の画像のみを用いて,人気のある事前学習モデルを再利用することを目的としている。
我々の tNet は GANs ベースのデータセットから生成された偽画像の総合的精度 9029% を達成する。
論文 参考訳(メタデータ) (2020-01-05T16:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。