論文の概要: The eyes know it: FakeET -- An Eye-tracking Database to Understand
Deepfake Perception
- arxiv url: http://arxiv.org/abs/2006.06961v2
- Date: Thu, 18 Jun 2020 22:02:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 04:00:12.081891
- Title: The eyes know it: FakeET -- An Eye-tracking Database to Understand
Deepfake Perception
- Title(参考訳): the eyes know it: fakeet - ディープフェイクの知覚を理解するための視線追跡データベース
- Authors: Parul Gupta, Komal Chugh, Abhinav Dhall, Ramanathan Subramanian
- Abstract要約: FakeETは、視聴者が合成ビデオアーティファクトを検出することの容易さを理解し、評価するように設計されている。
FakeETには、EmphTobiiデスクトップアイトラッカーを通じて40名のユーザからコンパイルされた、TextitGoogle Deepfakeデータセットから811のビデオを閲覧するパターンが含まれている。
- 参考スコア(独自算出の注目度): 7.436429318051601
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present \textbf{FakeET}-- an eye-tracking database to understand human
visual perception of \emph{deepfake} videos. Given that the principal purpose
of deepfakes is to deceive human observers, FakeET is designed to understand
and evaluate the ease with which viewers can detect synthetic video artifacts.
FakeET contains viewing patterns compiled from 40 users via the \emph{Tobii}
desktop eye-tracker for 811 videos from the \textit{Google Deepfake} dataset,
with a minimum of two viewings per video. Additionally, EEG responses acquired
via the \emph{Emotiv} sensor are also available. The compiled data confirms (a)
distinct eye movement characteristics for \emph{real} vs \emph{fake} videos;
(b) utility of the eye-track saliency maps for spatial forgery localization and
detection, and (c) Error Related Negativity (ERN) triggers in the EEG
responses, and the ability of the \emph{raw} EEG signal to distinguish between
\emph{real} and \emph{fake} videos.
- Abstract(参考訳): 我々は, \textbf{fakeet}--\emph{deepfake}ビデオの人間の視覚知覚を理解するための視線追跡データベースである。
deepfakesの主な目的は人間のオブザーバーをだますことであり、フェイクレットは視聴者が合成ビデオのアーティファクトを検知する容易さを理解し評価するように設計されている。
fakeetには、\emph{tobii} desktop eye-tracker経由で40人のユーザーからコンパイルされた視聴パターンが含まれており、\textit{google deepfake}データセットから811本のビデオに対して、ビデオ毎に最低2回の視聴がある。
さらに、emph{Emotiv}センサーを介して取得されたEEG応答も利用可能である。
コンパイルされたデータが
(a) \emph{real} 対 \emph{fake} ビデオの異なる眼球運動特性
b)空間フォージェリーの局所化・検出のための視線塩分マップの有用性、及び
(c)Error Related Negativity (ERN)は、脳波応答をトリガーし、\emph{raw} EEG信号が \emph{real} と \emph{fake} のビデオを区別する能力を持つ。
関連論文リスト
- FakeFormer: Efficient Vulnerability-Driven Transformers for Generalisable Deepfake Detection [12.594436202557446]
本稿では,視覚変換器(ViT)が顔面偽造検出に最適である理由について検討する。
本稿では, 微妙な不整合情報を抽出するためにViTを拡張したFakeFormerというディープフェイク検出フレームワークを提案する。
FF++、Celeb-DF、WildDeepfake、DFD、DFDCP、DFDCなど、さまざまな有名なデータセットで実験が行われている。
論文 参考訳(メタデータ) (2024-10-29T11:36:49Z) - Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Shaking the Fake: Detecting Deepfake Videos in Real Time via Active Probes [3.6308756891251392]
生成AIの一種であるリアルタイムディープフェイク(Real-time Deepfake)は、ビデオ内の既存のコンテンツ(例えば、顔を別のものと交換する)を「生成する」ことができる。
金融詐欺や政治的誤報など、悪意ある目的のためにディープフェイクビデオを作るのに誤用されている。
本研究では,物理干渉に適応できないディープフェイクモデルを利用した新しいリアルタイムディープフェイク検出手法であるSFakeを提案する。
論文 参考訳(メタデータ) (2024-09-17T04:58:30Z) - What Matters in Detecting AI-Generated Videos like Sora? [51.05034165599385]
合成ビデオと現実世界のビデオのギャップは、まだ未発見のままだ。
本研究では,現在最先端のAIモデルであるStable Video Diffusionによって生成された実世界の映像を比較した。
我々のモデルは、訓練中にSoraのビデオに露出することなく、Soraが生成した映像を高精度に検出することができる。
論文 参考訳(メタデータ) (2024-06-27T23:03:58Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - TAP-Vid: A Benchmark for Tracking Any Point in a Video [84.94877216665793]
我々は、より長いビデオクリップで表面上の任意の物理点を追跡するという問題を定式化し、任意の点(TAP)を追尾する。
そこで本研究では,実世界の映像に正確な点線アノテーションを付加したTAP-Vidと,完全な接地木線トラックを付加した合成ビデオとを併用したベンチマーク,TAP-Vidを提案する。
本稿では, 簡易な終端点追跡モデルTAP-Netを提案する。
論文 参考訳(メタデータ) (2022-11-07T17:57:02Z) - Explaining Deepfake Detection by Analysing Image Matching [13.251308261180805]
本稿では,2値ラベルで教師されるだけで,ディープフェイク検出モデルが画像のアーティファクト特徴をどのように学習するかを解釈することを目的とする。
ディープフェイク検出モデルは、FST-Matchingを通じて人工物に関連する視覚概念を暗黙的に学習する。
本稿では,圧縮ビデオにおける偽造検出性能を高めるためのFSTマッチングディープフェイク検出モデルを提案する。
論文 参考訳(メタデータ) (2022-07-20T06:23:11Z) - What's wrong with this video? Comparing Explainers for Deepfake
Detection [13.089182408360221]
Deepfakesは、個人の顔が別の顔に置き換えられたコンピュータ操作されたビデオです。
本研究では,実映像と偽動画のラベル付けを説明するために,ホワイトボックス,ブラックボックス,モデル固有の手法を開発し,拡張し,比較する。
特に,shap,gradcam,self-attentionモデルを用いて,高効率ネットに基づく最先端検出器の予測を説明する。
論文 参考訳(メタデータ) (2021-05-12T18:44:39Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z) - SaccadeNet: A Fast and Accurate Object Detector [76.36741299193568]
我々はtextitSaccadeNet と呼ばれる高速かつ高精度なオブジェクト検出器を提案する。
セナム、コラム、atm、アガットの4つの主要なモジュールが含まれており、異なる情報的オブジェクトキーポイントへの参加を可能にする。
SaccadeNetは、25FPS以上の高速動作が可能なリアルタイムオブジェクト検出装置の中で、最高の検出性能を実現しています。
論文 参考訳(メタデータ) (2020-03-26T19:47:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。