論文の概要: DeepFake Detection in Dyadic Video Calls using Point of Gaze Tracking
- arxiv url: http://arxiv.org/abs/2509.25503v1
- Date: Mon, 29 Sep 2025 20:59:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.321478
- Title: DeepFake Detection in Dyadic Video Calls using Point of Gaze Tracking
- Title(参考訳): 視線追跡点を用いた映像通話におけるディープフェイク検出
- Authors: Odin Kohler, Rahul Vijaykumar, Masudul H. Imtiaz,
- Abstract要約: 悪意ある俳優は、ビデオ会議中にリアルタイムフィッシング攻撃を行うためにディープフェイク技術を使い始めた。
本稿では,これまで利用できなかった生体情報を利用して,このジャンルの攻撃に適応したリアルタイムディープフェイク検出手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With recent advancements in deepfake technology, it is now possible to generate convincing deepfakes in real-time. Unfortunately, malicious actors have started to use this new technology to perform real-time phishing attacks during video meetings. The nature of a video call allows access to what the deepfake is ``seeing,'' that is, the screen displayed to the malicious actor. Using this with the estimated gaze from the malicious actors streamed video enables us to estimate where the deepfake is looking on screen, the point of gaze. Because the point of gaze during conversations is not random and is instead used as a subtle nonverbal communicator, it can be used to detect deepfakes, which are not capable of mimicking this subtle nonverbal communication. This paper proposes a real-time deepfake detection method adapted to this genre of attack, utilizing previously unavailable biometric information. We built our model based on explainable features selected after careful review of research on gaze patterns during dyadic conversations. We then test our model on a novel dataset of our creation, achieving an accuracy of 82\%. This is the first reported method to utilize point-of-gaze tracking for deepfake detection.
- Abstract(参考訳): 近年のディープフェイク技術の発展により、説得力のあるディープフェイクをリアルタイムで生成することが可能になった。
残念ながら、悪意のある俳優はビデオ会議中にリアルタイムフィッシング攻撃を行うためにこの新技術を使い始めた。
ビデオ通話の性質は、ディープフェイクが 'seeing'、つまり、悪意のあるアクターに表示されるスクリーンにアクセスすることができる。
これを用いて、悪意ある俳優がストリーミングしたビデオから推定した視線を使って、ディープフェイクが画面を見ている場所、視線ポイントを推定することができる。
会話中の視線はランダムではなく、代わりに微妙な非言語コミュニケーションとして使用されるため、この微妙な非言語コミュニケーションを模倣することができないディープフェイクを検出するために使用できる。
本稿では,これまで利用できなかった生体情報を利用して,このジャンルの攻撃に適応したリアルタイムディープフェイク検出手法を提案する。
ダイアディック会話における視線パターンの研究を精査した上で選択した説明可能な特徴に基づくモデルを構築した。
次に、我々のモデルを新しいデータセットでテストし、82\%の精度を実現した。
これはディープフェイク検出にポイント・オブ・ゲイズ・トラッキングを利用する最初の報告手法である。
関連論文リスト
- Detecting Deepfake Talking Heads from Facial Biometric Anomalies [12.369423169349673]
ディープフェイクビデオの偽装は、しばしば詐欺、詐欺、政治的偽情報に使用される。
顔バイオメトリックスにおける不自然なパターンを利用したディープフェイク映像の偽造検出のための新しい機械学習手法を提案する。
我々は、この手法を、ディープフェイク技術と偽造の膨大なデータセットにわたって評価するとともに、ビデオ洗浄に対する信頼性と、以前に見つからなかったディープフェイクジェネレータへの一般化を評価する。
論文 参考訳(メタデータ) (2025-07-11T16:29:25Z) - Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Shaking the Fake: Detecting Deepfake Videos in Real Time via Active Probes [3.6308756891251392]
生成AIの一種であるリアルタイムディープフェイク(Real-time Deepfake)は、ビデオ内の既存のコンテンツ(例えば、顔を別のものと交換する)を「生成する」ことができる。
金融詐欺や政治的誤報など、悪意ある目的のためにディープフェイクビデオを作るのに誤用されている。
本研究では,物理干渉に適応できないディープフェイクモデルを利用した新しいリアルタイムディープフェイク検出手法であるSFakeを提案する。
論文 参考訳(メタデータ) (2024-09-17T04:58:30Z) - Detecting Deepfake by Creating Spatio-Temporal Regularity Disruption [94.5031244215761]
本稿では,実際のビデオにない「規則性破壊」を識別することで,ディープフェイク検出の一般化を促進することを提案する。
具体的には、空間的・時間的特性を慎重に調べることで、擬似フェイク発生器による実映像の破壊を提案する。
このような手法により,フェイクビデオを使わずにディープフェイク検出が可能となり,よりシンプルかつ効率的に一般化能力を向上させることができる。
論文 参考訳(メタデータ) (2022-07-21T10:42:34Z) - Deepfake Caricatures: Amplifying attention to artifacts increases deepfake detection by humans and machines [16.41264978552925]
ディープフェイクビデオのアーティファクトを増幅するフレームワークを導入し、人々がより検出できるようにする。
ユーザスタディでは,映像提示時間やユーザエンゲージメントレベルを通じて,Caricaturesが人間の検出を大幅に増加させることを示した。
また,Artifact Attentionモジュールを組み込んだディープフェイク検出モデルを導入し,精度とロバスト性を向上させる。
論文 参考訳(メタデータ) (2022-06-01T14:43:49Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。