論文の概要: Gotcha: Real-Time Video Deepfake Detection via Challenge-Response
- arxiv url: http://arxiv.org/abs/2210.06186v2
- Date: Wed, 29 Nov 2023 22:33:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 20:56:42.238493
- Title: Gotcha: Real-Time Video Deepfake Detection via Challenge-Response
- Title(参考訳): Gotcha:チャレンジ応答によるリアルタイムビデオディープフェイク検出
- Authors: Govind Mittal, Chinmay Hegde, Nasir Memon
- Abstract要約: 本稿では,ライブ環境での信頼性を確立するための課題応答手法を提案する。
本稿では,RTDF生成パイプラインに固有の制約を特に対象とする課題の分類について述べる。
- 参考スコア(独自算出の注目度): 19.237975456536564
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the rise of AI-enabled Real-Time Deepfakes (RTDFs), the integrity of
online video interactions has become a growing concern. RTDFs have now made it
feasible to replace an imposter's face with their victim in live video
interactions. Such advancement in deepfakes also coaxes detection to rise to
the same standard. However, existing deepfake detection techniques are
asynchronous and hence ill-suited for RTDFs. To bridge this gap, we propose a
challenge-response approach that establishes authenticity in live settings. We
focus on talking-head style video interaction and present a taxonomy of
challenges that specifically target inherent limitations of RTDF generation
pipelines. We evaluate representative examples from the taxonomy by collecting
a unique dataset comprising eight challenges, which consistently and visibly
degrades the quality of state-of-the-art deepfake generators. These results are
corroborated both by humans and a new automated scoring function, leading to
88.6\% and 73.2% AUC, respectively. The findings underscore the promising
potential of challenge-response systems for explainable and scalable real-time
deepfake detection in practical scenarios.
- Abstract(参考訳): AI対応のリアルタイムディープフェイク(RTDF)の台頭により、オンラインビデオインタラクションの完全性が懸念されている。
rtdfsは、ライブビデオのやりとりでインポスターの顔を被害者に置き換えることを可能にした。
このようなディープフェイクの進歩は、検出をコックス化し、同じ基準に達する。
しかし、既存のディープフェイク検出技術は非同期であり、RTDFには適していない。
このギャップを埋めるために,実環境において真正性を確立する挑戦応答アプローチを提案する。
対話型ビデオインタラクションに注目し,rtdf生成パイプラインの固有の制限を特にターゲットとした,課題の分類法を提案する。
本研究では,8つの課題からなる独自のデータセットを収集することにより,分類学における代表例を評価する。
これらの結果は人間と新しい自動スコアリング機能の両方で相関しており、それぞれ88.6\%と73.2%のAUCとなっている。
この結果は,実シナリオで説明可能な,スケーラブルなリアルタイムディープフェイク検出のための課題応答システムの可能性を示している。
関連論文リスト
- XAI-Based Detection of Adversarial Attacks on Deepfake Detectors [0.0]
我々は,XAIを用いたディープフェイク検出器に対する敵攻撃を識別するための新しい手法を提案する。
本手法は, ディープフェイクの検出だけでなく, 敵攻撃の可能性に対する理解の向上にも寄与する。
論文 参考訳(メタデータ) (2024-03-05T13:25:30Z) - AI-assisted Tagging of Deepfake Audio Calls using Challenge-Response [14.604998731837595]
Scammersは、AI音声閉鎖技術を社会工学の攻撃に積極的に活用している。
リアルタイムディープフェイク(RTDF)は、電話でターゲットの声をリアルタイムでクローンすることができる。
本稿では,ディープフェイク音声通話を検出するための頑健なチャレンジ応答方式を提案する。
論文 参考訳(メタデータ) (2024-02-28T06:17:55Z) - Improving Cross-dataset Deepfake Detection with Deep Information
Decomposition [57.284370468207214]
ディープフェイク技術は、セキュリティと社会的信頼に重大な脅威をもたらす。
既存の検出方法は、クロスデータセットのシナリオに直面した場合、パフォーマンスの急激な低下に悩まされる。
本稿では,深層情報分解(DID)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - NPVForensics: Jointing Non-critical Phonemes and Visemes for Deepfake
Detection [50.33525966541906]
既存のマルチモーダル検出手法は、Deepfakeビデオを公開するために、音声と視覚の不整合をキャプチャする。
NPVForensics と呼ばれる非臨界音素とビセムの相関関係を抽出する新しいディープフェイク検出法を提案する。
我々のモデルは、微調整で下流のDeepfakeデータセットに容易に適応できる。
論文 参考訳(メタデータ) (2023-06-12T06:06:05Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [73.61769046989258]
近年、ディープフェイク(deepfake deepfake)と呼ばれるフェイススワップ技術が悪用され、人々の関心が高まっている。
ディープフェイクに対する有望な対策はディープフェイク検出です。
deepfake検出器のトレーニングとテストをサポートするために、いくつかのdeepfakeデータセットがリリースされた。
インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介します。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z) - Where Do Deep Fakes Look? Synthetic Face Detection via Gaze Tracking [8.473714899301601]
ディープフェイクと異なる目と視線の特徴をいくつか提案する。
次に、これらの機能をシグネチャにコンパイルし、リアルビデオとフェイクビデオの機能を分析および比較します。
第3に,この公式をディープニューラルネットワークによるディープフェイク検出問題に一般化する。
論文 参考訳(メタデータ) (2021-01-04T18:54:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。