論文の概要: On the Exploitation of Deepfake Model Recognition
- arxiv url: http://arxiv.org/abs/2204.04513v1
- Date: Sat, 9 Apr 2022 16:48:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 16:04:14.048593
- Title: On the Exploitation of Deepfake Model Recognition
- Title(参考訳): ディープフェイクモデル認識の爆発について
- Authors: Luca Guarnera (1), Oliver Giudice (2), Matthias Niessner (3),
Sebastiano Battiato (1) ((1) University of Catania, (2) Applied Research
Team, IT dept., Banca d'Italia, Italy, (3) Technical University of Munich,
Germany)
- Abstract要約: ディープフェイク画像を生成する特定のGANモデルの認識は、最先端技術においてまだ完全に対処されていないタスクである。
ディープフェイクモデル認識のための分析指紋のポイントアウトの可能性を評価する頑健な処理パイプラインを示す。
この研究は、Deepfake現象に対抗する重要な一歩を踏み出し、ある種のシグネチャをある種の意味で導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite recent advances in Generative Adversarial Networks (GANs), with
special focus to the Deepfake phenomenon there is no a clear understanding
neither in terms of explainability nor of recognition of the involved models.
In particular, the recognition of a specific GAN model that generated the
deepfake image compared to many other possible models created by the same
generative architecture (e.g. StyleGAN) is a task not yet completely addressed
in the state-of-the-art. In this work, a robust processing pipeline to evaluate
the possibility to point-out analytic fingerprints for Deepfake model
recognition is presented. After exploiting the latent space of 50 slightly
different models through an in-depth analysis on the generated images, a proper
encoder was trained to discriminate among these models obtaining a
classification accuracy of over 96%. Once demonstrated the possibility to
discriminate extremely similar images, a dedicated metric exploiting the
insights discovered in the latent space was introduced. By achieving a final
accuracy of more than 94% for the Model Recognition task on images generated by
models not employed in the training phase, this study takes an important step
in countering the Deepfake phenomenon introducing a sort of signature in some
sense similar to those employed in the multimedia forensics field (e.g. for
camera source identification task, image ballistics task, etc).
- Abstract(参考訳): 近年のGAN(Generative Adversarial Networks)の発展にもかかわらず、Deepfake現象に特化して説明可能性や関連するモデルの認識に関しても明確な理解が得られていない。
特に、同じ生成的アーキテクチャ(例えばStyleGAN)によって生成された他の多くのモデルと比較してディープフェイク画像を生成する特定のGANモデルの認識は、最先端技術においてまだ完全に対処されていないタスクである。
本研究では,Deepfakeモデル認識のための分析指紋のポイントアウトの可能性を評価する頑健な処理パイプラインを提案する。
生成した画像の深度解析により,50種類のモデルの潜時空間をわずかに利用した後,適切なエンコーダを訓練し,これらのモデルの識別精度を96%以上とした。
極端に類似した画像を識別する可能性を示すと、潜在空間で発見された洞察を利用する専用のメトリクスが導入された。
本研究は、トレーニング段階では使用されていないモデルから生成した画像に対するモデル認識タスクの94%以上の最終精度を達成することにより、マルチメディア法医学分野で採用されているもの(例えば、カメラソース識別タスク、画像弾道タスクなど)に類似した何らかのシグネチャを導入するディープフェイク現象に対抗する上で重要なステップを踏み出す。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - Rethinking the Up-Sampling Operations in CNN-based Generative Network
for Generalizable Deepfake Detection [86.97062579515833]
我々は、アップサンプリング操作から生じる一般化された構造的アーティファクトをキャプチャし、特徴付ける手段として、NPR(Neighboring Pixel Relationships)の概念を紹介した。
tft28の異なる生成モデルによって生成されたサンプルを含む、オープンワールドデータセット上で包括的な分析を行う。
この分析は、新しい最先端のパフォーマンスを確立し、既存の手法よりも優れたtft11.6%の向上を示している。
論文 参考訳(メタデータ) (2023-12-16T14:27:06Z) - An Ambiguity Measure for Recognizing the Unknowns in Deep Learning [0.0]
深層ニューラルネットワークの学習範囲から, 深部ニューラルネットワークの理解について検討する。
任意のモデルに対する入力のあいまいさを定量化する尺度を提案する。
論文 参考訳(メタデータ) (2023-12-11T02:57:12Z) - Hierarchical Uncertainty Estimation for Medical Image Segmentation
Networks [1.9564356751775307]
不確実性は、モデルトレーニングに使用される画像(ノイズ)と手動アノテーション(ヒューマンエラーとバイアス)の両方に存在する。
本稿では,複数のレベルで不確かさを推定する簡易かつ効果的な手法を提案する。
U-netのようなディープラーニングセグメンテーションネットワークは,高いセグメンテーション性能を実現することができることを示す。
論文 参考訳(メタデータ) (2023-08-16T16:09:23Z) - Level Up the Deepfake Detection: a Method to Effectively Discriminate
Images Generated by GAN Architectures and Diffusion Models [0.0]
プリズム画像と偽画像の専用データセットを収集し,ディープフェイク検出・認識タスクについて検討した。
3つの異なるディープフェイク検出および認識タスクを解決するために階層的マルチレベルアプローチが導入された。
実験の結果, いずれの場合も, 97%以上の分類精度が, 最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-01T16:01:46Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - An application of a pseudo-parabolic modeling to texture image
recognition [0.0]
偏微分方程式モデルを用いたテクスチャ画像認識のための新しい手法を提案する。
擬似パラボリックなBuckley-Leverett方程式を用いて、デジタル画像表現のダイナミクスを提供し、時間とともに進化するそれらの画像から局所的な記述子を収集する。
論文 参考訳(メタデータ) (2021-02-09T18:08:42Z) - DeepFake Detection by Analyzing Convolutional Traces [0.0]
我々は,人間の顔のディープフェイクの分析に着目し,新しい検出方法を提案する。
提案手法は, 予測最大化(EM)アルゴリズムを用いて, 基礎となる畳み込み生成過程をモデル化するための局所的特徴の集合を抽出する。
その結果、異なるアーキテクチャと対応する生成過程を区別する手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-22T09:02:55Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。