論文の概要: Detecting Generated Images by Real Images Only
- arxiv url: http://arxiv.org/abs/2311.00962v1
- Date: Thu, 2 Nov 2023 03:09:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 15:05:32.853343
- Title: Detecting Generated Images by Real Images Only
- Title(参考訳): 実画像のみによる生成画像の検出
- Authors: Xiuli Bi and Bo Liu and Fan Yang and Bin Xiao and Weisheng Li and Gao
Huang and Pamela C. Cosman
- Abstract要約: 既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
- 参考スコア(独自算出の注目度): 64.12501227493765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep learning technology continues to evolve, the images yielded by
generative models are becoming more and more realistic, triggering people to
question the authenticity of images. Existing generated image detection methods
detect visual artifacts in generated images or learn discriminative features
from both real and generated images by massive training. This learning paradigm
will result in efficiency and generalization issues, making detection methods
always lag behind generation methods. This paper approaches the generated image
detection problem from a new perspective: Start from real images. By finding
the commonality of real images and mapping them to a dense subspace in feature
space, the goal is that generated images, regardless of their generative model,
are then projected outside the subspace. As a result, images from different
generative models can be detected, solving some long-existing problems in the
field. Experimental results show that although our method was trained only by
real images and uses 99.9\% less training data than other deep learning-based
methods, it can compete with state-of-the-art methods and shows excellent
performance in detecting emerging generative models with high inference
efficiency. Moreover, the proposed method shows robustness against various
post-processing. These advantages allow the method to be used in real-world
scenarios.
- Abstract(参考訳): ディープラーニング技術が進化を続けるにつれ、生成モデルによって得られるイメージはますます現実的になり、人々のイメージの真正性に疑問を呈するようになった。
既存の画像検出手法では、生成画像中の視覚アーチファクトを検出したり、実画像と生成画像の両方の識別特徴を大規模トレーニングによって学習する。
この学習パラダイムは効率と一般化の問題をもたらし、検出方法は常に生成方法に遅れを生じる。
本稿では,新しい視点から生成された画像検出問題にアプローチする。
実画像の共通性を見つけ、それらを機能空間内の密閉部分空間にマッピングすることで、生成した画像は生成モデルに関係なく、部分空間の外に投影される。
結果として、異なる生成モデルからの画像を検出でき、フィールド内の長年の問題を解決することができる。
実験の結果,本手法は実画像のみを用いて訓練され,他の深層学習法に比べて99.9倍のトレーニングデータを使用するが,最先端の手法と競合し,推論効率の高い生成モデルの検出に優れた性能を示した。
さらに,提案手法は各種後処理に対する堅牢性を示す。
これらの利点により、実際のシナリオでメソッドが使用できる。
関連論文リスト
- Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - DeepFeatureX Net: Deep Features eXtractors based Network for discriminating synthetic from real images [6.75641797020186]
ディープラーニングアルゴリズムによって生成された合成画像であるDeepfakesは、Digital Forensicsの分野における最大の課題の1つだ。
ベースモデルと呼ばれる3つのブロックに基づく新しい手法を提案する。
そして、各ブロックから抽出された一般化特徴を処理して、入力画像の起源を判別する。
論文 参考訳(メタデータ) (2024-04-24T07:25:36Z) - Active Generation for Image Classification [45.93535669217115]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - Deep Image Fingerprint: Towards Low Budget Synthetic Image Detection and Model Lineage Analysis [8.777277201807351]
本研究では,実際の画像と区別できない画像の新たな検出方法を提案する。
本手法は、既知の生成モデルから画像を検出し、微調整された生成モデル間の関係を確立することができる。
本手法は,Stable Diffusion とMidversa が生成した画像に対して,最先端の事前学習検出手法に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2023-03-19T20:31:38Z) - A comparison of different atmospheric turbulence simulation methods for
image restoration [64.24948495708337]
大気の乱流は、長距離イメージングシステムによって捉えられた画像の品質を悪化させる。
深層学習に基づく大気乱流緩和法が文献で提案されている。
様々な乱流シミュレーション手法が画像復元に与える影響を系統的に評価した。
論文 参考訳(メタデータ) (2022-04-19T16:21:36Z) - DeepBlur: A Simple and Effective Method for Natural Image Obfuscation [4.80165284612342]
In this present DeepBlur, a simple yet effective method for image obfuscation by blurring in the Latent space of a unconditionally pre-trained generative model。
効率性や画質の面で既存の手法と比較し,最先端のディープラーニングモデルと産業製品とを比較した。
論文 参考訳(メタデータ) (2021-03-31T19:31:26Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - Just Noticeable Difference for Machines to Generate Adversarial Images [0.34376560669160383]
提案手法は、Just Noticeable differenceと呼ばれる実験心理学の一般的な概念に基づいている。
本研究で生成した対向画像は, 対向画像生成装置の出力と比較すると, より自然なように見える。
論文 参考訳(メタデータ) (2020-01-29T19:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。