論文の概要: Deepfakes Generation and Detection: State-of-the-art, open challenges,
countermeasures, and way forward
- arxiv url: http://arxiv.org/abs/2103.00484v1
- Date: Thu, 25 Feb 2021 18:26:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 00:46:05.786691
- Title: Deepfakes Generation and Detection: State-of-the-art, open challenges,
countermeasures, and way forward
- Title(参考訳): deepfakes生成と検出:最新技術,オープンチャレンジ,対策,今後の展望
- Authors: Momina Masood, Marriam Nawaz, Khalid Mahmood Malik, Ali Javed, Aun
Irtaza
- Abstract要約: 不正情報、リベンジポルノ、金融詐欺、詐欺、政府機能を妨害するディープフェイクを発生させることが可能である。
オーディオとビデオの両方のディープフェイクの検出と生成のアプローチをレビューする試みは行われていない。
本稿では、deepfake生成のための既存のツールと機械学習(ml)ベースのアプローチの包括的なレビューと詳細な分析を提供する。
- 参考スコア(独自算出の注目度): 2.15242029196761
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Easy access to audio-visual content on social media, combined with the
availability of modern tools such as Tensorflow or Keras, open-source trained
models, and economical computing infrastructure, and the rapid evolution of
deep-learning (DL) methods, especially Generative Adversarial Networks (GAN),
have made it possible to generate deepfakes to disseminate disinformation,
revenge porn, financial frauds, hoaxes, and to disrupt government functioning.
The existing surveys have mainly focused on deepfake video detection only. No
attempt has been made to review approaches for detection and generation of both
audio and video deepfakes. This paper provides a comprehensive review and
detailed analysis of existing tools and machine learning (ML) based approaches
for deepfake generation and the methodologies used to detect such manipulations
for the detection and generation of both audio and video deepfakes. For each
category of deepfake, we discuss information related to manipulation
approaches, current public datasets, and key standards for the performance
evaluation of deepfake detection techniques along with their results.
Additionally, we also discuss open challenges and enumerate future directions
to guide future researchers on issues that need to be considered to improve the
domains of both the deepfake generation and detection. This work is expected to
assist the readers in understanding the creation and detection mechanisms of
deepfake, along with their current limitations and future direction.
- Abstract(参考訳): ソーシャルメディア上での視聴覚コンテンツへのアクセスの容易化、tensorflowやkerasといった現代的なツール、オープンソースのトレーニングモデル、経済コンピューティングインフラストラクチャ、特にgan(generative adversarial network)といったディープラーニング(dl)メソッドの急速な進化などと相まって、偽情報、リベンジポルノ、金融詐欺、嘘、政府機能の破壊のためのディープフェイクの生成が可能になった。
既存の調査は主にディープフェイクビデオ検出のみに焦点を当てている。
オーディオとビデオの両方のディープフェイクの検出と生成のアプローチをレビューする試みは行われていない。
本稿では,既存のツールと機械学習(ml)に基づくディープフェイク生成手法の包括的レビューと詳細な分析と,音声とビデオの両方のディープフェイクの検出と生成のためのそのような操作を検出する手法について述べる。
deepfakeの各カテゴリについて,操作アプローチ,現在の公開データセット,およびdeepfake検出手法の性能評価のためのキー標準に関する情報とその結果について検討する。
さらに,今後の課題について議論し,今後の方向性を列挙し,ディープフェイク生成と検出の両方の領域を改善するために考慮すべき課題について,今後の研究者に指導する。
この研究は、deepfakeの作成と検出メカニズムと、現在の限界と今後の方向性を理解する上で、読者を支援することが期待されている。
関連論文リスト
- XAI-Based Detection of Adversarial Attacks on Deepfake Detectors [0.0]
我々は,XAIを用いたディープフェイク検出器に対する敵攻撃を識別するための新しい手法を提案する。
本手法は, ディープフェイクの検出だけでなく, 敵攻撃の可能性に対する理解の向上にも寄与する。
論文 参考訳(メタデータ) (2024-03-05T13:25:30Z) - Improving Cross-dataset Deepfake Detection with Deep Information
Decomposition [57.284370468207214]
ディープフェイク技術は、セキュリティと社会的信頼に重大な脅威をもたらす。
既存の検出方法は、クロスデータセットのシナリオに直面した場合、パフォーマンスの急激な低下に悩まされる。
本稿では,深層情報分解(DID)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - NPVForensics: Jointing Non-critical Phonemes and Visemes for Deepfake
Detection [50.33525966541906]
既存のマルチモーダル検出手法は、Deepfakeビデオを公開するために、音声と視覚の不整合をキャプチャする。
NPVForensics と呼ばれる非臨界音素とビセムの相関関係を抽出する新しいディープフェイク検出法を提案する。
我々のモデルは、微調整で下流のDeepfakeデータセットに容易に適応できる。
論文 参考訳(メタデータ) (2023-06-12T06:06:05Z) - Undercover Deepfakes: Detecting Fake Segments in Videos [1.2609216345578933]
ディープフェイク・ジェネレーションは ディープフェイクの新しいパラダイムだ ほとんどは 真実を歪めるために わずかに修正された 実際のビデオだ
本稿では,フレームとビデオレベルでディープフェイク予測を行うことにより,この問題に対処できるディープフェイク検出手法を提案する。
特に、私たちが取り組むパラダイムは、ディープフェイクのモデレーションのための強力なツールを形成します。
論文 参考訳(メタデータ) (2023-05-11T04:43:10Z) - Leveraging Deep Learning Approaches for Deepfake Detection: A Review [0.0]
ディープフェイク(Deepfakes)は、AIによって生成されたメディアであり、実際のメディアから切り離すことが難しい。
本稿では,コスト効率のよいモデルを実現するために,様々な手法を検討することを目的とする。
論文 参考訳(メタデータ) (2023-04-04T16:04:42Z) - Using Deep Learning to Detecting Deepfakes [0.0]
ディープフェイク(Deepfakes)とは、ある人物の顔を別のコンピュータが生成した顔に置き換えるビデオまたは画像である。
このオンライン脅威に対抗するために、研究者たちはディープフェイクを検出するモデルを開発した。
本研究では、ディープラーニングアルゴリズムを用いて、この略奪的な脅威に対処する様々なディープフェイク検出モデルについて検討する。
論文 参考訳(メタデータ) (2022-07-27T17:05:16Z) - A Continual Deepfake Detection Benchmark: Dataset, Methods, and
Essentials [97.69553832500547]
本稿では, 既知の生成モデルと未知の生成モデルの両方から, 新たなディープフェイク集合に対する連続的なディープフェイク検出ベンチマーク(CDDB)を提案する。
本研究では,連続的なディープラーニング検出問題に対して,連続的な視覚認識で一般的に使用される多クラス漸進学習手法を適応するために,複数のアプローチを利用する。
論文 参考訳(メタデータ) (2022-05-11T13:07:19Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z) - Survey of Network Intrusion Detection Methods from the Perspective of
the Knowledge Discovery in Databases Process [63.75363908696257]
本稿では,侵入検知器の開発を目的として,ネットワークデータに適用された手法について概説する。
本稿では,データのキャプチャ,準備,変換,データマイニング,評価などの手法について論じる。
この文献レビューの結果、ネットワークセキュリティ分野のさらなる研究のために考慮すべきいくつかのオープンな問題について検討する。
論文 参考訳(メタデータ) (2020-01-27T11:21:05Z) - DeepFakes and Beyond: A Survey of Face Manipulation and Fake Detection [17.602598143822917]
このサーベイは、DeepFakeメソッドを含む顔画像を操作するテクニックのレビューを提供する。
特に、顔全体の合成、アイデンティティスワップ(ディープフェイク)、属性操作、式スワップの4種類の顔操作がレビューされている。
われわれは最新世代のDeepFakesに特に注意を払っており、フェイク検出の改善と課題を強調している。
論文 参考訳(メタデータ) (2020-01-01T09:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。