論文の概要: What makes fake images detectable? Understanding properties that
generalize
- arxiv url: http://arxiv.org/abs/2008.10588v1
- Date: Mon, 24 Aug 2020 17:50:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 12:18:17.934456
- Title: What makes fake images detectable? Understanding properties that
generalize
- Title(参考訳): 偽画像はなぜ検出できるのか?
一般化する性質を理解する
- Authors: Lucy Chai, David Bau, Ser-Nam Lim, Phillip Isola
- Abstract要約: 深層ネットワークは、博士画像の微妙なアーティファクトを拾い上げることができる。
我々は、偽画像のどの特性が検出可能かを理解することを模索する。
検出可能な特性を誇張する手法を示す。
- 参考スコア(独自算出の注目度): 55.4211069143719
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quality of image generation and manipulation is reaching impressive
levels, making it increasingly difficult for a human to distinguish between
what is real and what is fake. However, deep networks can still pick up on the
subtle artifacts in these doctored images. We seek to understand what
properties of fake images make them detectable and identify what generalizes
across different model architectures, datasets, and variations in training. We
use a patch-based classifier with limited receptive fields to visualize which
regions of fake images are more easily detectable. We further show a technique
to exaggerate these detectable properties and demonstrate that, even when the
image generator is adversarially finetuned against a fake image classifier, it
is still imperfect and leaves detectable artifacts in certain image patches.
Code is available at https://chail.github.io/patch-forensics/.
- Abstract(参考訳): 画像生成と操作の質は印象的なレベルに達しており、人間が本物と偽物を区別することがますます難しくなっている。
しかし、深層ネットワークは、これらの博士画像の微妙なアーティファクトを拾い上げることができる。
偽画像のどの特性が検出可能かを理解し、異なるモデルアーキテクチャ、データセット、トレーニングのバリエーションにまたがって一般化されるものを特定する。
我々は,偽画像のどの領域がより検出しやすいかを可視化するために,レセプティブフィールドが限定されたパッチベースの分類器を用いる。
さらに, 検出可能な特性を誇張する手法を示し, 画像生成装置が偽画像分類器に対して可逆的に微調整されている場合でも, 不完全であり, 検出可能なアーティファクトを特定の画像パッチに残していることを示す。
コードはhttps://chail.github.io/patch-forensics/で入手できる。
関連論文リスト
- On the Effectiveness of Dataset Alignment for Fake Image Detection [28.68129042301801]
優れた検出器は、セマンティックコンテンツ、解像度、ファイルフォーマットなどの画像特性を無視しながら、生成モデル指紋に焦点を当てるべきである。
この研究では、これらのアルゴリズムの選択に加えて、堅牢な検出器をトレーニングするためには、リアル/フェイク画像の整列したデータセットも必要である、と論じる。
そこで本研究では, LDMの家族に対して, LDMのオートエンコーダを用いて実画像の再構成を行う手法を提案する。
論文 参考訳(メタデータ) (2024-10-15T17:58:07Z) - Semantic Contextualization of Face Forgery: A New Definition, Dataset, and Detection Method [77.65459419417533]
我々は,顔フォージェリを意味的文脈に配置し,意味的顔属性を変更する計算手法が顔フォージェリの源であることを定義した。
階層的なグラフで整理されたラベルの集合に各画像が関連付けられている大規模な顔偽画像データセットを構築した。
本稿では,ラベル関係を捕捉し,その優先課題を優先するセマンティクス指向の顔偽造検出手法を提案する。
論文 参考訳(メタデータ) (2024-05-14T10:24:19Z) - FakeBench: Probing Explainable Fake Image Detection via Large Multimodal Models [62.66610648697744]
我々は人間の知覚に関する生成的視覚的偽造の分類を導入し、人間の自然言語における偽造記述を収集する。
FakeBenchは、検出、推論、解釈、きめ細かい偽造分析の4つの評価基準でLMMを調べている。
本研究は,偽画像検出領域における透明性へのパラダイムシフトを示す。
論文 参考訳(メタデータ) (2024-04-20T07:28:55Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - AntifakePrompt: Prompt-Tuned Vision-Language Models are Fake Image Detectors [24.78672820633581]
深層生成モデルは、偽情報や著作権侵害に対する懸念を高めながら、驚くほど偽のイメージを作成することができる。
実画像と偽画像とを区別するためにディープフェイク検出技術が開発された。
本稿では,視覚言語モデルとアクシデントチューニング技術を用いて,Antifake Promptと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-26T14:23:45Z) - Deepfake Detection of Occluded Images Using a Patch-based Approach [1.6114012813668928]
本研究では, 顔全体と顔のパッチを用いて, 障害物の有無で実像と偽像を識別する深層学習手法を提案する。
偽画像を作成するには、FFHQイメージでStyleGANとStyleGAN2を、CelebAイメージでStarGANとPGGANをトレーニングする。
提案手法は他の手法よりも早期に高い結果に到達し、異なる構築されたデータセットにおいてSoTAの結果を0.4%-7.9%向上させる。
論文 参考訳(メタデータ) (2023-04-10T12:12:14Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Towards Universal Fake Image Detectors that Generalize Across Generative Models [36.18427140427858]
実Vsフェイク分類のためのディープネットワークを訓練する既存のパラダイムは、新しい世代生成モデルから偽画像を検出するのに失敗していることを示す。
実写画像と実写画像の区別を明示的に訓練されていない特徴空間を用いて,学習せずに実写映像の分類を行うことを提案する。
論文 参考訳(メタデータ) (2023-02-20T18:59:04Z) - Identifying Invariant Texture Violation for Robust Deepfake Detection [17.306386179823576]
Invariant Texture Learning frameworkは,低画質で公開されたデータセットにのみアクセスすることができる。
本手法は, 被写体から転写したテクスチャによって, 被写体表面の微視的顔のテクスチャが必然的に侵害されることを前提とした。
論文 参考訳(メタデータ) (2020-12-19T03:02:15Z) - Identity-Driven DeepFake Detection [91.0504621868628]
アイデンティティ駆動のDeepFake Detectionは、被疑者画像/ビデオとターゲットのアイデンティティ情報を入力する。
被疑者画像・映像の同一性は対象人物と同一かという判断を出力する。
本稿では,新たな研究のベースラインとして,簡単な識別ベース検出アルゴリズムであるouterfaceを提案する。
論文 参考訳(メタデータ) (2020-12-07T18:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。