論文の概要: Is Seeing Believing? Evaluating Human Sensitivity to Synthetic Video
- arxiv url: http://arxiv.org/abs/2603.13846v2
- Date: Tue, 17 Mar 2026 11:54:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 13:19:43.851884
- Title: Is Seeing Believing? Evaluating Human Sensitivity to Synthetic Video
- Title(参考訳): 信じられているのか? : 人間の感性から合成ビデオまで
- Authors: David Wegmann, Emil Stevnsborg, Søren Knudsen, Luca Rossi, Aske Mottelson,
- Abstract要約: 機械学習の進歩により、Deepfakesとして知られるリアルな合成ビデオが作成できるようになった。
ディープフェイクの普及に伴い、偽情報の急速な拡散や大衆の認識の操作に関する懸念が高まっている。
本稿では,映像の視覚的・聴覚的歪みに対する人間の反応と,深層的な視覚的・ナレーションの差を狭めることを目的とする。
- 参考スコア(独自算出の注目度): 4.424726186196119
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in machine learning have enabled the creation of realistic synthetic videos known as deepfakes. As deepfakes proliferate, concerns about rapid spread of disinformation and manipulation of public perception are mounting. Despite the alarming implications, our understanding of how individuals perceive synthetic media remains limited, obstructing the development of effective mitigation strategies. This paper aims to narrow this gap by investigating human responses to visual and auditory distortions of videos and deepfake-generated visuals and narration. In two between-subjects experiments, we study whether audio-visual distortions affect cognitive processing, such as subjective credibility assessment and objective learning outcomes. A third study reveals that artifacts from deepfakes influence credibility. The three studies show that video distortions and deepfake artifacts can reduce credibility. Our research contributes to the ongoing exploration of the cognitive processes involved in the evaluation and perception of synthetic videos, and underscores the need for further theory development concerning deepfake exposure.
- Abstract(参考訳): 機械学習の進歩により、Deepfakesとして知られるリアルな合成ビデオが作成できるようになった。
ディープフェイクの普及に伴い、偽情報の急速な拡散や大衆の認識の操作に関する懸念が高まっている。
この懸念にもかかわらず、個人が合成メディアをどのように知覚するかの理解は依然として限られており、効果的な緩和戦略の開発を妨げている。
本稿では,映像の視覚的・聴覚的歪みに対する人間の反応と,深層的な視覚的・ナレーションを調査することによって,このギャップを狭めることを目的とする。
2つの対象間の実験において、聴覚・視覚の歪みが主観的信頼度評価や客観的学習結果などの認知処理に影響を及ぼすかを検討する。
第3の研究では、ディープフェイクのアーティファクトが信頼性に影響を与えることが明らかになった。
3つの研究は、ビデオ歪みとディープフェイクアーティファクトが信頼性を低下させることを示した。
本研究は, 合成ビデオの評価と知覚に関わる認知過程の解明に寄与し, ディープフェイク露光に関するさらなる理論開発の必要性を浮き彫りにしている。
関連論文リスト
- Understanding Audiovisual Deepfake Detection: Techniques, Challenges, Human Factors and Perceptual Insights [49.81915942821647]
ディープラーニングは様々な分野に適用され、ディープフェイク検出への影響は例外ではない。
ディープフェイク(英: Deepfakes)は、政治的偽造、フィッシング、スランダリング、偽情報の拡散に偽装的に使用できる、偽物だが現実的な合成コンテンツである。
本稿では,ディープフェイク検出戦略の有効性を改善し,サイバーセキュリティとメディアの整合性に関する今後の研究を導くことを目的とする。
論文 参考訳(メタデータ) (2024-11-12T09:02:11Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - As Good As A Coin Toss: Human detection of AI-generated images, videos, audio, and audiovisual stimuli [0.0]
本研究は,1276名の被験者を対象に,真偽メディアと合成メディアの識別能力を評価するための知覚的研究を行った。
その結果、平均的な検出性能は50%に近づき、合成メディアと真正メディアの区別に苦慮していることがわかった。
また,任意の種類の合成コンテンツを含む刺激が外国語を特徴とし,メディアタイプが単一モダリティである場合には,精度が低下することが判明した。
論文 参考訳(メタデータ) (2024-03-25T13:39:33Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - Leveraging Real Talking Faces via Self-Supervision for Robust Forgery
Detection [112.96004727646115]
本研究では,実話を用いた顔操作映像の検出手法を開発した。
本手法は, クロスマニピュレーションの一般化とロバストネス実験における最先端性能を実現する。
以上の結果から、より堅牢な顔偽造検知器の開発には、自然ビデオと未表示ビデオの活用が有望な方向であることが示唆された。
論文 参考訳(メタデータ) (2022-01-18T17:14:54Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。