論文の概要: Deepfake Network Architecture Attribution
- arxiv url: http://arxiv.org/abs/2202.13843v1
- Date: Mon, 28 Feb 2022 14:54:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 16:33:46.699636
- Title: Deepfake Network Architecture Attribution
- Title(参考訳): Deepfakeネットワークアーキテクチャの貢献
- Authors: Tianyun Yang, Ziyao Huang, Juan Cao, Lei Li, Xirong Li
- Abstract要約: 既存のフェイク画像属性の研究は、GAN(Generative Adversarial Network)モデルでマルチクラス分類を行っている。
textitDeepfake Network Architecture Attribution に関する最初の研究を行い,アーキテクチャレベルでの偽画像の属性について述べる。
- 参考スコア(独自算出の注目度): 23.375381198124014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid progress of generation technology, it has become necessary to
attribute the origin of fake images. Existing works on fake image attribution
perform multi-class classification on several Generative Adversarial Network
(GAN) models and obtain high accuracies. While encouraging, these works are
restricted to model-level attribution, only capable of handling images
generated by seen models with a specific seed, loss and dataset, which is
limited in real-world scenarios when fake images may be generated by privately
trained models. This motivates us to ask whether it is possible to attribute
fake images to the source models' architectures even if they are finetuned or
retrained under different configurations. In this work, we present the first
study on \textit{Deepfake Network Architecture Attribution} to attribute fake
images on architecture-level. Based on an observation that GAN architecture is
likely to leave globally consistent fingerprints while traces left by model
weights vary in different regions, we provide a simple yet effective solution
named DNA-Det for this problem. Extensive experiments on multiple cross-test
setups and a large-scale dataset demonstrate the effectiveness of DNA-Det.
- Abstract(参考訳): 世代技術が急速に進歩するにつれて、偽画像の起源を考慮に入れる必要がある。
既存の偽画像帰属研究は、複数のGAN(Generative Adversarial Network)モデルでマルチクラス分類を行い、高い精度を得る。
奨励される一方で、これらの作品はモデルレベルの属性に制限されており、特定のシード、損失、データセットで見たモデルによって生成された画像のみを扱うことができる。
これにより、異なる構成下で微調整されたり再訓練されたりしても、偽画像をソースモデルのアーキテクチャに属性付けることができるかどうかを問うことができる。
本稿では,偽画像をアーキテクチャレベルで属性付けする \textit{deepfake network architecture attribution} に関する最初の研究を行う。
GANアーキテクチャはグローバルに一貫した指紋を残す傾向があり、モデル重みによる痕跡は地域によって異なるため、この問題に対してDNA-Detという名前の単純で効果的なソリューションを提供する。
複数のクロステストセットアップと大規模なデータセットに関する大規模な実験は、DNA-Detの有効性を示している。
関連論文リスト
- Rethinking the Up-Sampling Operations in CNN-based Generative Network
for Generalizable Deepfake Detection [86.97062579515833]
我々は、アップサンプリング操作から生じる一般化された構造的アーティファクトをキャプチャし、特徴付ける手段として、NPR(Neighboring Pixel Relationships)の概念を紹介した。
tft28の異なる生成モデルによって生成されたサンプルを含む、オープンワールドデータセット上で包括的な分析を行う。
この分析は、新しい最先端のパフォーマンスを確立し、既存の手法よりも優れたtft11.6%の向上を示している。
論文 参考訳(メタデータ) (2023-12-16T14:27:06Z) - Learned representation-guided diffusion models for large-image
generation [60.698616089211505]
自己教師型学習(SSL)からの埋め込みを条件とした拡散モデルを訓練する新しいアプローチを導入する。
我々の拡散モデルは、これらの特徴を高品質な病理組織学およびリモートセンシング画像に投影することに成功した。
実画像のバリエーションを生成して実データを増やすことにより、パッチレベルおよび大規模画像分類タスクの下流精度が向上する。
論文 参考訳(メタデータ) (2023-12-12T14:45:45Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Evaluating Data Attribution for Text-to-Image Models [62.844382063780365]
我々は,既存の大規模モデルを与えられた模範オブジェクトやスタイルにチューニングする「カストミゼーション」手法による属性評価を行う。
私たちのキーとなる洞察は、これによって、構築によって模範にコンピュータ的に影響される合成画像を効率的に作成できるということです。
問題の本質的な不確実性を考慮することで、一連のトレーニング画像に対してソフトな属性スコアを割り当てることができる。
論文 参考訳(メタデータ) (2023-06-15T17:59:51Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural
Images [59.71861772648853]
我々は,最先端拡散モデルにより生成された偽画像の正当性に関する体系的研究を開拓した。
我々の分析は、偽画像は共通の低レベルな手がかりを共有しており、容易に認識できることを示している。
本設定では,偽検出手法の性能を定量的に評価し,コントラッシブ・ベース・ディエンタング・ストラテジーを導入する。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Six-channel Image Representation for Cross-domain Object Detection [17.854940064699985]
ディープラーニングモデルはデータ駆動であり、優れたパフォーマンスは豊富で多様なデータセットに依存する。
いくつかの画像から画像への翻訳技術は、モデルを訓練するために特定のシーンの偽データを生成するために用いられる。
3チャンネル画像とそのgan生成した偽画像に刺激を与え,データセットの6チャンネル表現を作成することを提案する。
論文 参考訳(メタデータ) (2021-01-03T04:50:03Z) - DeepFake Detection by Analyzing Convolutional Traces [0.0]
我々は,人間の顔のディープフェイクの分析に着目し,新しい検出方法を提案する。
提案手法は, 予測最大化(EM)アルゴリズムを用いて, 基礎となる畳み込み生成過程をモデル化するための局所的特徴の集合を抽出する。
その結果、異なるアーキテクチャと対応する生成過程を区別する手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-22T09:02:55Z) - Leveraging Frequency Analysis for Deep Fake Image Recognition [35.1862941141084]
ディープニューラルネットワークは驚くべきほどリアルな画像を生成することができるため、人間が実際の写真と区別するのはしばしば困難である。
これらの成果は主にGAN(Generative Adversarial Networks)によって実現されている。
本稿では、周波数空間において、GAN生成した画像は、容易に識別できる重いアーティファクトを示すことを示す。
論文 参考訳(メタデータ) (2020-03-19T11:06:54Z) - FDFtNet: Facing Off Fake Images using Fake Detection Fine-tuning Network [19.246576904646172]
本稿では,FaketNetと呼ばれる,軽量な微調整ニューラルネットワークアーキテクチャを提案する。
提案手法は,偽画像の検出を効果的に行うための微調整のために,数枚の画像のみを用いて,人気のある事前学習モデルを再利用することを目的としている。
我々の tNet は GANs ベースのデータセットから生成された偽画像の総合的精度 9029% を達成する。
論文 参考訳(メタデータ) (2020-01-05T16:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。