論文の概要: Cross-Forgery Analysis of Vision Transformers and CNNs for Deepfake
Image Detection
- arxiv url: http://arxiv.org/abs/2206.13829v1
- Date: Tue, 28 Jun 2022 08:50:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 13:35:52.338539
- Title: Cross-Forgery Analysis of Vision Transformers and CNNs for Deepfake
Image Detection
- Title(参考訳): ディープフェイク画像検出のための視覚トランスフォーマーとcnnのクロスフォーブリー解析
- Authors: Davide Alessandro Coccomini, Roberto Caldelli, Fabrizio Falchi,
Claudio Gennaro, Giuseppe Amato
- Abstract要約: EfficientNetV2は、トレーニング方法のより良い結果を得ることがしばしばある傾向にあることを示す。
また、視覚変換器はより優れた一般化能力を示し、新しい手法で生成された画像にもより有能であることを示す。
- 参考スコア(独自算出の注目度): 11.944111906027144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfake Generation Techniques are evolving at a rapid pace, making it
possible to create realistic manipulated images and videos and endangering the
serenity of modern society. The continual emergence of new and varied
techniques brings with it a further problem to be faced, namely the ability of
deepfake detection models to update themselves promptly in order to be able to
identify manipulations carried out using even the most recent methods. This is
an extremely complex problem to solve, as training a model requires large
amounts of data, which are difficult to obtain if the deepfake generation
method is too recent. Moreover, continuously retraining a network would be
unfeasible. In this paper, we ask ourselves if, among the various deep learning
techniques, there is one that is able to generalise the concept of deepfake to
such an extent that it does not remain tied to one or more specific deepfake
generation methods used in the training set. We compared a Vision Transformer
with an EfficientNetV2 on a cross-forgery context based on the ForgeryNet
dataset. From our experiments, It emerges that EfficientNetV2 has a greater
tendency to specialize often obtaining better results on training methods while
Vision Transformers exhibit a superior generalization ability that makes them
more competent even on images generated with new methodologies.
- Abstract(参考訳): ディープフェイク生成技術は急速に進化しており、リアルに操作された画像やビデオを作成し、現代社会のセレニティを危険にさらすことができる。
新たな多種多様な技術の継続的な出現は、直近の手法でも操作を識別できるように、ディープフェイク検出モデルが迅速に自己を更新できるという、さらに問題に直面することになる。
これは、モデルのトレーニングには大量のデータが必要であるため、Deepfake生成方法が近すぎると取得が困難であるため、非常に複雑な問題である。
さらに、ネットワークを継続的に再トレーニングすることは不可能である。
本稿では, 様々な深層学習技術の中で, 深部フェイクの概念を, トレーニングセットで使用される1つ以上の特定の深部フェイク生成手法に縛られない程度に一般化できるものが存在するかどうかを自問する。
我々は、ForgeryNetデータセットに基づくクロスフォージェニーコンテキストにおいて、Vision TransformerとEfficientNetV2を比較した。
実験の結果,EfficientNetV2はトレーニング手法の優れた結果を得る傾向が強く,Vision Transformerは新たな手法で生成した画像においてもより優れた一般化能力を示すことがわかった。
関連論文リスト
- Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Deep Image Fingerprint: Towards Low Budget Synthetic Image Detection and Model Lineage Analysis [8.777277201807351]
本研究では,実際の画像と区別できない画像の新たな検出方法を提案する。
本手法は、既知の生成モデルから画像を検出し、微調整された生成モデル間の関係を確立することができる。
本手法は,Stable Diffusion とMidversa が生成した画像に対して,最先端の事前学習検出手法に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2023-03-19T20:31:38Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Hybrid Transformer Network for Deepfake Detection [2.644723682054489]
本稿では,初期の特徴融合戦略を生かしたハイブリッドトランスネットワークを提案する。
提案モデルはFaceForensics++およびDFDCベンチマークで評価すると,他の高度な最先端手法と同等の結果が得られる。
また,顔の切り欠きの増大やランダムな切り欠きの増大も提案する。
論文 参考訳(メタデータ) (2022-08-11T13:30:42Z) - Self-supervised Transformer for Deepfake Detection [112.81127845409002]
現実世界のシナリオにおけるディープフェイク技術は、顔偽造検知器のより強力な一般化能力を必要とする。
転送学習に触発されて、他の大規模な顔関連タスクで事前訓練されたニューラルネットワークは、ディープフェイク検出に有用な機能を提供する可能性がある。
本稿では,自己教師型変換器を用いた音声視覚コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-02T17:44:40Z) - FReTAL: Generalizing Deepfake Detection using Knowledge Distillation and
Representation Learning [17.97648576135166]
本稿では,FreTAL(Feature Representation Transfer Adaptation Learning)法を提案する。
我々の学生モデルは、事前学習した教師モデルから知識を抽出することで、新しいタイプのディープフェイクに迅速に適応することができる。
FRETALは、ドメイン適応タスクのすべてのベースラインを86.97%の精度で低品質のディープフェイクで上回っている。
論文 参考訳(メタデータ) (2021-05-28T06:54:10Z) - Deepfake Forensics via An Adversarial Game [99.84099103679816]
顔偽造と画像・映像品質の両面での一般化能力向上のための対人訓練を提唱する。
AIベースの顔操作は、しばしば、一般化が困難であるモデルによって容易に発見できる高周波アーティファクトにつながることを考慮し、これらの特定のアーティファクトを曖昧にしようとする新しい逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T02:20:08Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。