論文の概要: Gotcha: Real-Time Video Deepfake Detection via Challenge-Response
- arxiv url: http://arxiv.org/abs/2210.06186v2
- Date: Wed, 29 Nov 2023 22:33:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 20:56:42.238493
- Title: Gotcha: Real-Time Video Deepfake Detection via Challenge-Response
- Title(参考訳): Gotcha:チャレンジ応答によるリアルタイムビデオディープフェイク検出
- Authors: Govind Mittal, Chinmay Hegde, Nasir Memon
- Abstract要約: 本稿では,ライブ環境での信頼性を確立するための課題応答手法を提案する。
本稿では,RTDF生成パイプラインに固有の制約を特に対象とする課題の分類について述べる。
- 参考スコア(独自算出の注目度): 19.237975456536564
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the rise of AI-enabled Real-Time Deepfakes (RTDFs), the integrity of
online video interactions has become a growing concern. RTDFs have now made it
feasible to replace an imposter's face with their victim in live video
interactions. Such advancement in deepfakes also coaxes detection to rise to
the same standard. However, existing deepfake detection techniques are
asynchronous and hence ill-suited for RTDFs. To bridge this gap, we propose a
challenge-response approach that establishes authenticity in live settings. We
focus on talking-head style video interaction and present a taxonomy of
challenges that specifically target inherent limitations of RTDF generation
pipelines. We evaluate representative examples from the taxonomy by collecting
a unique dataset comprising eight challenges, which consistently and visibly
degrades the quality of state-of-the-art deepfake generators. These results are
corroborated both by humans and a new automated scoring function, leading to
88.6\% and 73.2% AUC, respectively. The findings underscore the promising
potential of challenge-response systems for explainable and scalable real-time
deepfake detection in practical scenarios.
- Abstract(参考訳): AI対応のリアルタイムディープフェイク(RTDF)の台頭により、オンラインビデオインタラクションの完全性が懸念されている。
rtdfsは、ライブビデオのやりとりでインポスターの顔を被害者に置き換えることを可能にした。
このようなディープフェイクの進歩は、検出をコックス化し、同じ基準に達する。
しかし、既存のディープフェイク検出技術は非同期であり、RTDFには適していない。
このギャップを埋めるために,実環境において真正性を確立する挑戦応答アプローチを提案する。
対話型ビデオインタラクションに注目し,rtdf生成パイプラインの固有の制限を特にターゲットとした,課題の分類法を提案する。
本研究では,8つの課題からなる独自のデータセットを収集することにより,分類学における代表例を評価する。
これらの結果は人間と新しい自動スコアリング機能の両方で相関しており、それぞれ88.6\%と73.2%のAUCとなっている。
この結果は,実シナリオで説明可能な,スケーラブルなリアルタイムディープフェイク検出のための課題応答システムの可能性を示している。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Shaking the Fake: Detecting Deepfake Videos in Real Time via Active Probes [3.6308756891251392]
生成AIの一種であるリアルタイムディープフェイク(Real-time Deepfake)は、ビデオ内の既存のコンテンツ(例えば、顔を別のものと交換する)を「生成する」ことができる。
金融詐欺や政治的誤報など、悪意ある目的のためにディープフェイクビデオを作るのに誤用されている。
本研究では,物理干渉に適応できないディープフェイクモデルを利用した新しいリアルタイムディープフェイク検出手法であるSFakeを提案する。
論文 参考訳(メタデータ) (2024-09-17T04:58:30Z) - Conditioned Prompt-Optimization for Continual Deepfake Detection [11.634681724245933]
本稿では,Pmpt2Guardについて紹介する。
我々は,読み出し専用プロンプトを用いた予測アンサンブル手法を活用し,複数のフォワードパスの必要性を軽減した。
提案手法は,ディープフェイク検出に適したテキスト・プロンプト・コンディショニングを利用する。
論文 参考訳(メタデータ) (2024-07-31T12:22:57Z) - DF40: Toward Next-Generation Deepfake Detection [62.073997142001424]
既存の研究は、ある特定のデータセットで検出器をトレーニングし、他の一般的なディープフェイクデータセットでテストすることで、トップノーチ検出アルゴリズムとモデルを識別する。
しかし、これらの「勝者」は現実の世界に潜む無数の現実的で多様なディープフェイクに取り組むために真に応用できるのだろうか?
我々は,40の異なるディープフェイク技術からなるDF40という,高度に多様なディープフェイク検出データセットを構築した。
論文 参考訳(メタデータ) (2024-06-19T12:35:02Z) - XAI-Based Detection of Adversarial Attacks on Deepfake Detectors [0.0]
我々は,XAIを用いたディープフェイク検出器に対する敵攻撃を識別するための新しい手法を提案する。
本手法は, ディープフェイクの検出だけでなく, 敵攻撃の可能性に対する理解の向上にも寄与する。
論文 参考訳(メタデータ) (2024-03-05T13:25:30Z) - NPVForensics: Jointing Non-critical Phonemes and Visemes for Deepfake
Detection [50.33525966541906]
既存のマルチモーダル検出手法は、Deepfakeビデオを公開するために、音声と視覚の不整合をキャプチャする。
NPVForensics と呼ばれる非臨界音素とビセムの相関関係を抽出する新しいディープフェイク検出法を提案する。
我々のモデルは、微調整で下流のDeepfakeデータセットに容易に適応できる。
論文 参考訳(メタデータ) (2023-06-12T06:06:05Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。