論文の概要: Practical Deepfake Detection: Vulnerabilities in Global Contexts
- arxiv url: http://arxiv.org/abs/2206.09842v1
- Date: Mon, 20 Jun 2022 15:24:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 19:21:45.139313
- Title: Practical Deepfake Detection: Vulnerabilities in Global Contexts
- Title(参考訳): 実用的なディープフェイク検出:グローバルコンテキストにおける脆弱性
- Authors: Yang A. Chuming, Daniel J. Wu, Ken Hong
- Abstract要約: ディープラーニングは、ディープフェイクとして知られるビデオへのデジタル変更を可能にした。
この技術は、偽情報や認証に関する重要な社会的関心を喚起する。
我々は、FaceForensics++データセットの破損した変種に対して、データ消去手法をシミュレートし、最先端のディープフェイク検出アルゴリズムの性能について検討する。
- 参考スコア(独自算出の注目度): 1.6114012813668934
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in deep learning have enabled realistic digital alterations
to videos, known as deepfakes. This technology raises important societal
concerns regarding disinformation and authenticity, galvanizing the development
of numerous deepfake detection algorithms. At the same time, there are
significant differences between training data and in-the-wild video data, which
may undermine their practical efficacy. We simulate data corruption techniques
and examine the performance of a state-of-the-art deepfake detection algorithm
on corrupted variants of the FaceForensics++ dataset.
While deepfake detection models are robust against video corruptions that
align with training-time augmentations, we find that they remain vulnerable to
video corruptions that simulate decreases in video quality. Indeed, in the
controversial case of the video of Gabonese President Bongo's new year address,
the algorithm, which confidently authenticates the original video, judges
highly corrupted variants of the video to be fake. Our work opens up both
technical and ethical avenues of exploration into practical deepfake detection
in global contexts.
- Abstract(参考訳): ディープラーニングの最近の進歩は、deepfakesとして知られるビデオのリアルなデジタル変更を可能にした。
この技術は、多くのディープフェイク検出アルゴリズムの開発を後押しし、偽情報や認証に関する重要な社会的関心を高める。
同時に、トレーニングデータと、その実践的効果を損なう可能性のあるWildビデオデータの間には、大きな違いがある。
我々は,faceforensics++データセットの破損した変種に対して,データ破損手法をシミュレートし,最先端のディープフェイク検出アルゴリズムの性能を調べる。
ディープフェイク検出モデルは、トレーニング時間の増加に伴うビデオ破損に対して頑健であるが、ビデオ品質の低下をシミュレートするビデオ破損に対して脆弱であることがわかった。
実際、ガボンセ大統領ボンゴ氏の新年の演説のビデオでは、元の動画を確実に認証するアルゴリズムが、この動画の非常に腐敗した変種を偽造であると判断している。
我々の研究は、グローバルな文脈における実践的なディープフェイク検出への技術と倫理の両方の道を開いた。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Comparative Analysis of Deep-Fake Algorithms [0.0]
ディープフェイク(Deepfakes)は、ディープラーニングベースのフェイクビデオとしても知られており、近年大きな関心を集めている。
これらのディープフェイクビデオは、誤った情報を広めたり、個人を偽装したり、フェイクニュースを作るといった悪質な目的で使用することができる。
ディープフェイク検出技術は、顔認識、モーション分析、音声と視覚の同期といった様々なアプローチを使用する。
論文 参考訳(メタデータ) (2023-09-06T18:17:47Z) - Detecting Deepfake by Creating Spatio-Temporal Regularity Disruption [94.5031244215761]
本稿では,実際のビデオにない「規則性破壊」を識別することで,ディープフェイク検出の一般化を促進することを提案する。
具体的には、空間的・時間的特性を慎重に調べることで、擬似フェイク発生器による実映像の破壊を提案する。
このような手法により,フェイクビデオを使わずにディープフェイク検出が可能となり,よりシンプルかつ効率的に一般化能力を向上させることができる。
論文 参考訳(メタデータ) (2022-07-21T10:42:34Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Deepfake Videos in the Wild: Analysis and Detection [6.246677573849458]
我々は、YouTubeとBilibiliから1,869本のビデオを含む、野生のディープフェイクビデオのデータセットを提示し、480万フレーム以上のコンテンツを抽出する。
第2に,実世界におけるディープフェイクコンテンツの成長パターン,人気,クリエーター,操作戦略,生産方法の包括的分析を行った。
第三に、我々は新しいデータセットを使って既存の防衛を体系的に評価し、実際の世界に配備する準備が整っていないことを観察する。
論文 参考訳(メタデータ) (2021-03-07T04:40:15Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z) - Deepfake Video Forensics based on Transfer Learning [0.0]
ディープフェイク」は、人間が本物のものと区別できない偽のイメージやビデオを作ることができる。
本稿では,各ディープフェイク映像フレームの特徴を把握するために,画像分類モデルを再学習する方法について述べる。
Deepfakeのビデオをチェックすると、87%以上の精度が得られた。
論文 参考訳(メタデータ) (2020-04-29T13:21:28Z) - Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to
Adversarial Examples [23.695497512694068]
ビデオ操作技術の最近の進歩は、偽ビデオの生成をこれまで以上にアクセスしやすくしている。
操作されたビデオは偽情報を燃やし、メディアの信頼を減らすことができる。
近年開発されたDeepfake検出方法は、AI生成のフェイクビデオと実際のビデオとを区別するために、ディープニューラルネットワーク(DNN)に依存している。
論文 参考訳(メタデータ) (2020-02-09T07:10:58Z) - Detecting Face2Face Facial Reenactment in Videos [76.9573023955201]
本研究では,再現性に基づく変化を検出する学習に基づくアルゴリズムを提案する。
提案アルゴリズムは,局所的なアーティファクトを学習し,様々な圧縮レベルで堅牢な性能を提供するマルチストリームネットワークを用いている。
その結果, 99.96%, 99.10%, 91.20%の非, 容易, 硬度圧縮係数が得られた。
論文 参考訳(メタデータ) (2020-01-21T11:03:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。