論文の概要: Detection of Real-time DeepFakes in Video Conferencing with Active
Probing and Corneal Reflection
- arxiv url: http://arxiv.org/abs/2210.14153v1
- Date: Fri, 21 Oct 2022 23:31:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 13:29:25.791070
- Title: Detection of Real-time DeepFakes in Video Conferencing with Active
Probing and Corneal Reflection
- Title(参考訳): アクティブプローブと角膜反射を用いたビデオ会議におけるリアルタイムディープフェイクの検出
- Authors: Hui Guo, Xin Wang, Siwei Lyu
- Abstract要約: 本稿では,リアルタイムのDeepFakeを検出するための新しい法医学的手法について述べる。
我々は、画面上に異なるパターンを表示し、通話参加者の顔の画像から抽出した角膜反射を用いて、ビデオ通話を認証する。
このパターンは、共有画面に表示された呼び出し参加者またはビデオコールクライアントに直接統合された呼び出し参加者によって誘導される。
- 参考スコア(独自算出の注目度): 43.272069005626584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The COVID pandemic has led to the wide adoption of online video calls in
recent years. However, the increasing reliance on video calls provides
opportunities for new impersonation attacks by fraudsters using the advanced
real-time DeepFakes. Real-time DeepFakes pose new challenges to detection
methods, which have to run in real-time as a video call is ongoing. In this
paper, we describe a new active forensic method to detect real-time DeepFakes.
Specifically, we authenticate video calls by displaying a distinct pattern on
the screen and using the corneal reflection extracted from the images of the
call participant's face. This pattern can be induced by a call participant
displaying on a shared screen or directly integrated into the video-call
client. In either case, no specialized imaging or lighting hardware is
required. Through large-scale simulations, we evaluate the reliability of this
approach under a range in a variety of real-world imaging scenarios.
- Abstract(参考訳): 新型コロナウイルスのパンデミックは近年、オンラインビデオ通話の普及につながっている。
しかし、ビデオ通話への依存度が高まることで、高度なリアルタイムのDeepFakesを使って詐欺師による新たな偽造攻撃の機会が生まれる。
リアルタイムのDeepFakesは、ビデオ通話中にリアルタイムで実行しなければならない検出方法に、新たな課題を提起する。
本稿では,リアルタイムのDeepFakeを検出するための新しい法医学的手法について述べる。
具体的には、画面上に異なるパターンを表示し、通話参加者の顔の画像から抽出した角膜反射を用いてビデオ通話を認証する。
このパターンは、共有画面に表示される呼び出し参加者によって引き起こされるか、ビデオ通話クライアントに直接統合される。
どちらの場合でも、特殊な撮像や照明ハードウェアは必要ない。
大規模シミュレーションにより,様々な実世界の画像シナリオにおいて,このアプローチの信頼性を評価する。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - AV-Lip-Sync+: Leveraging AV-HuBERT to Exploit Multimodal Inconsistency
for Video Deepfake Detection [32.502184301996216]
マルチモーダル操作(オーディオ・ヴィジュアル・ディープフェイクとも呼ばれる)は、一方的なディープフェイク検出器がマルチメディアコンテンツの偽造を検出するのを困難にしている。
従来は、一様ビデオ法則を主に採用し、教師付き事前訓練を用いて偽造検出を行った。
本研究では,マルチモーダル自己教師付き学習(SSL)機能抽出器に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-05T18:35:03Z) - NPVForensics: Jointing Non-critical Phonemes and Visemes for Deepfake
Detection [50.33525966541906]
既存のマルチモーダル検出手法は、Deepfakeビデオを公開するために、音声と視覚の不整合をキャプチャする。
NPVForensics と呼ばれる非臨界音素とビセムの相関関係を抽出する新しいディープフェイク検出法を提案する。
我々のモデルは、微調整で下流のDeepfakeデータセットに容易に適応できる。
論文 参考訳(メタデータ) (2023-06-12T06:06:05Z) - Real-time Multi-person Eyeblink Detection in the Wild for Untrimmed
Video [41.4300990443683]
野生のリアルタイムアイブリンク検出は、疲労検出、顔の反偽造、感情分析などに広く役立ちます。
私たちはこの研究分野に初めて光を当て、データセット、理論、プラクティスに不可欠な貢献をしました。
論文 参考訳(メタデータ) (2023-03-28T15:35:25Z) - Detecting Deepfake by Creating Spatio-Temporal Regularity Disruption [94.5031244215761]
本稿では,実際のビデオにない「規則性破壊」を識別することで,ディープフェイク検出の一般化を促進することを提案する。
具体的には、空間的・時間的特性を慎重に調べることで、擬似フェイク発生器による実映像の破壊を提案する。
このような手法により,フェイクビデオを使わずにディープフェイク検出が可能となり,よりシンプルかつ効率的に一般化能力を向上させることができる。
論文 参考訳(メタデータ) (2022-07-21T10:42:34Z) - Leveraging Real Talking Faces via Self-Supervision for Robust Forgery
Detection [112.96004727646115]
本研究では,実話を用いた顔操作映像の検出手法を開発した。
本手法は, クロスマニピュレーションの一般化とロバストネス実験における最先端性能を実現する。
以上の結果から、より堅牢な顔偽造検知器の開発には、自然ビデオと未表示ビデオの活用が有望な方向であることが示唆された。
論文 参考訳(メタデータ) (2022-01-18T17:14:54Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - Deep Frequent Spatial Temporal Learning for Face Anti-Spoofing [9.435020319411311]
対面防止は, 提示攻撃による侵入を避けることにより, 顔認識システムのセキュリティに不可欠である。
従来の研究は、この課題に深度と時間的監督を用いることの有効性を示した。
本稿では, 頻繁, 空間的, 時間的情報を同時に活用する顔アンチスプーフィングのための新しい2つのストリームFreqSaptialTemporalNetを提案する。
論文 参考訳(メタデータ) (2020-01-20T06:02:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。