論文の概要: Comparing Human and Machine Deepfake Detection with Affective and
Holistic Processing
- arxiv url: http://arxiv.org/abs/2105.06496v1
- Date: Thu, 13 May 2021 18:22:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 12:54:31.097642
- Title: Comparing Human and Machine Deepfake Detection with Affective and
Holistic Processing
- Title(参考訳): 人間と機械のディープフェイク検出と影響的・全体的処理の比較
- Authors: Matthew Groh, Ziv Epstein, Chaz Firestone, Rosalind Picard
- Abstract要約: 本物のビデオとディープフェイクを提示し、参加者にどのビデオなのかを尋ねます。
私たちは、通常の参加者のパフォーマンスを主要なコンピュータビジョンディープフェイク検出モデルと比較します。
偶発的な怒りは参加者のパフォーマンスを低下させ、顔の全体的な視覚処理を妨げることも参加者のパフォーマンスを妨げます。
- 参考スコア(独自算出の注目度): 2.15145758970292
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The recent emergence of deepfake videos leads to an important societal
question: how can we know if a video that we watch is real or fake? In three
online studies with 15,016 participants, we present authentic videos and
deepfakes and ask participants to identify which is which. We compare the
performance of ordinary participants against the leading computer vision
deepfake detection model and find them similarly accurate while making
different kinds of mistakes. Together, participants with access to the model's
prediction are more accurate than either alone, but inaccurate model
predictions often decrease participants' accuracy. We embed randomized
experiments and find: incidental anger decreases participants' performance and
obstructing holistic visual processing of faces also hinders participants'
performance while mostly not affecting the model's. These results suggest that
considering emotional influences and harnessing specialized, holistic visual
processing of ordinary people could be promising defenses against
machine-manipulated media.
- Abstract(参考訳): ディープフェイク動画が最近登場したことで、社会的な重要な疑問が生まれました。
15,016人の参加者を含む3つのオンライン研究で、本物のビデオとディープフェイクを紹介し、参加者にどれがどれであるかを尋ねます。
我々は,コンピュータビジョンの深度検出モデルに対して,一般参加者のパフォーマンスを比較し,異なる種類の誤りを犯しながら,同様の精度で検出する。
共に、モデルの予測にアクセスできる参加者は、単独よりも正確であるが、不正確なモデル予測は、しばしば参加者の精度を低下させる。
偶然の怒りは参加者のパフォーマンスを低下させ、顔の全体的視覚処理を阻害すると同時に、ほとんどモデルに影響を与えない一方で、参加者のパフォーマンスを阻害する。
これらの結果は, 感情的影響を考慮し, 一般人の特殊視覚処理を活用すれば, 機械操作メディアに対する防衛効果が期待できることが示唆された。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Detecting Deepfake by Creating Spatio-Temporal Regularity Disruption [94.5031244215761]
本稿では,実際のビデオにない「規則性破壊」を識別することで,ディープフェイク検出の一般化を促進することを提案する。
具体的には、空間的・時間的特性を慎重に調べることで、擬似フェイク発生器による実映像の破壊を提案する。
このような手法により,フェイクビデオを使わずにディープフェイク検出が可能となり,よりシンプルかつ効率的に一般化能力を向上させることができる。
論文 参考訳(メタデータ) (2022-07-21T10:42:34Z) - Leveraging Real Talking Faces via Self-Supervision for Robust Forgery
Detection [112.96004727646115]
本研究では,実話を用いた顔操作映像の検出手法を開発した。
本手法は, クロスマニピュレーションの一般化とロバストネス実験における最先端性能を実現する。
以上の結果から、より堅牢な顔偽造検知器の開発には、自然ビデオと未表示ビデオの活用が有望な方向であることが示唆された。
論文 参考訳(メタデータ) (2022-01-18T17:14:54Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - ID-Reveal: Identity-aware DeepFake Video Detection [24.79483180234883]
ID-Reveal(ID-Reveal)は、時間的顔の特徴を学習する新しいアプローチだ。
偽物のトレーニングデータは必要ありませんが、実際のビデオでトレーニングするだけです。
高圧縮映像における顔再現の精度は平均15%以上向上した。
論文 参考訳(メタデータ) (2020-12-04T10:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。