論文の概要: Hybrid Transformer Network for Deepfake Detection
- arxiv url: http://arxiv.org/abs/2208.05820v1
- Date: Thu, 11 Aug 2022 13:30:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 13:25:44.909029
- Title: Hybrid Transformer Network for Deepfake Detection
- Title(参考訳): ディープフェイク検出のためのハイブリッドトランスネットワーク
- Authors: Sohail Ahmed Khan and Duc-Tien Dang-Nguyen
- Abstract要約: 本稿では,初期の特徴融合戦略を生かしたハイブリッドトランスネットワークを提案する。
提案モデルはFaceForensics++およびDFDCベンチマークで評価すると,他の高度な最先端手法と同等の結果が得られる。
また,顔の切り欠きの増大やランダムな切り欠きの増大も提案する。
- 参考スコア(独自算出の注目度): 2.644723682054489
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deepfake media is becoming widespread nowadays because of the easily
available tools and mobile apps which can generate realistic looking deepfake
videos/images without requiring any technical knowledge. With further advances
in this field of technology in the near future, the quantity and quality of
deepfake media is also expected to flourish, while making deepfake media a
likely new practical tool to spread mis/disinformation. Because of these
concerns, the deepfake media detection tools are becoming a necessity. In this
study, we propose a novel hybrid transformer network utilizing early feature
fusion strategy for deepfake video detection. Our model employs two different
CNN networks, i.e., (1) XceptionNet and (2) EfficientNet-B4 as feature
extractors. We train both feature extractors along with the transformer in an
end-to-end manner on FaceForensics++, DFDC benchmarks. Our model, while having
relatively straightforward architecture, achieves comparable results to other
more advanced state-of-the-art approaches when evaluated on FaceForensics++ and
DFDC benchmarks. Besides this, we also propose novel face cut-out
augmentations, as well as random cut-out augmentations. We show that the
proposed augmentations improve the detection performance of our model and
reduce overfitting. In addition to that, we show that our model is capable of
learning from considerably small amount of data.
- Abstract(参考訳): ディープフェイク・メディアは、技術的知識を必要とせず、リアルに見えるディープフェイク・ビデオやイメージを生成できるツールやモバイルアプリが普及している。
近い将来、この技術分野のさらなる進歩により、ディープフェイクメディアの量と質も繁栄すると予想され、ディープフェイクメディアは、誤報/偽報を広めるための新しい実用的なツールとなる。
これらの懸念から、deepfakeメディア検出ツールの必要性が高まっている。
本研究では,ディープフェイク映像検出のための初期特徴融合戦略を用いたハイブリッドトランスネットワークを提案する。
本モデルでは,(1)XceptionNetと(2)EfficientNet-B4の2つの異なるCNNネットワークを用いて特徴抽出を行う。
FaceForensics++,DFDCベンチマーク上で,両機能抽出器と変換器をエンドツーエンドでトレーニングする。
我々のモデルは比較的単純なアーキテクチャであるが、FaceForensics++とDFDCベンチマークで評価すると、他の最先端のアプローチと同等の結果が得られる。
さらに,顔の切り欠きの増大やランダムな切り欠きの増大も提案する。
提案手法により,モデルの検出性能が向上し,オーバーフィッティングの低減が図られた。
それに加えて、我々のモデルは、かなり少ない量のデータから学習できることが示される。
関連論文リスト
- Data-Independent Operator: A Training-Free Artifact Representation
Extractor for Generalizable Deepfake Detection [105.9932053078449]
本研究では,より一般的な人工物表現を捉えるのに,小型かつトレーニング不要なフィルタが十分であることを示す。
トレーニングソースとテストソースの両方に不偏があるため、未確認ソースに対して魅力的な改善を実現するために、Data-Independent Operator (DIO)と定義する。
我々の検出器は13.3%の大幅な改善を実現し、新しい最先端の性能を確立した。
論文 参考訳(メタデータ) (2024-03-11T15:22:28Z) - Deepfake Video Detection Using Generative Convolutional Vision
Transformer [3.8297637120486496]
本稿では,深度映像検出のためのGenConViT(Generative Convolutional Vision Transformer)を提案する。
我々のモデルは特徴抽出のためにConvNeXtとSwin Transformerモデルを組み合わせている。
GenConViTは、視覚的アーティファクトと潜在データ分布から学習することにより、幅広いディープフェイクビデオを検出するパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2023-07-13T19:27:40Z) - Undercover Deepfakes: Detecting Fake Segments in Videos [1.2609216345578933]
ディープフェイク・ジェネレーションは ディープフェイクの新しいパラダイムだ ほとんどは 真実を歪めるために わずかに修正された 実際のビデオだ
本稿では,フレームとビデオレベルでディープフェイク予測を行うことにより,この問題に対処できるディープフェイク検出手法を提案する。
特に、私たちが取り組むパラダイムは、ディープフェイクのモデレーションのための強力なツールを形成します。
論文 参考訳(メタデータ) (2023-05-11T04:43:10Z) - Leveraging Deep Learning Approaches for Deepfake Detection: A Review [0.0]
ディープフェイク(Deepfakes)は、AIによって生成されたメディアであり、実際のメディアから切り離すことが難しい。
本稿では,コスト効率のよいモデルを実現するために,様々な手法を検討することを目的とする。
論文 参考訳(メタデータ) (2023-04-04T16:04:42Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Cross-Forgery Analysis of Vision Transformers and CNNs for Deepfake
Image Detection [11.944111906027144]
EfficientNetV2は、トレーニング方法のより良い結果を得ることがしばしばある傾向にあることを示す。
また、視覚変換器はより優れた一般化能力を示し、新しい手法で生成された画像にもより有能であることを示す。
論文 参考訳(メタデータ) (2022-06-28T08:50:22Z) - Activating More Pixels in Image Super-Resolution Transformer [53.87533738125943]
トランスフォーマーベースの手法は、画像超解像のような低レベルの視覚タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
提案手法は1dB以上で最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2022-05-09T17:36:58Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - Two-branch Recurrent Network for Isolating Deepfakes in Videos [17.59209853264258]
本稿では,2分岐ネットワーク構造に基づくディープフェイク検出手法を提案する。
1つのブランチは元の情報を伝達し、もう1つのブランチは顔の内容を抑制する。
当社の2つの新しいコンポーネントは、FaceForensics++、Celeb-DF、FacebookのDFDCプレビューベンチマークで有望な結果を示している。
論文 参考訳(メタデータ) (2020-08-08T01:38:56Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。