論文の概要: Digital literacy interventions can boost humans in discerning deepfakes
- arxiv url: http://arxiv.org/abs/2507.23492v1
- Date: Thu, 31 Jul 2025 12:23:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:09.733148
- Title: Digital literacy interventions can boost humans in discerning deepfakes
- Title(参考訳): デジタルリテラシーの介入は、ディープフェイクを識別する人間を後押しする
- Authors: Dominique Geissler, Claire Robertson, Stefan Feuerriegel,
- Abstract要約: ディープフェイク(Deepfakes)、すなわち人工知能(AI)が生成した画像は、機関への信頼を損なうことができ、選挙結果を損なうことができる。
ここでは、ディープフェイクの識別能力を高めるために、5つのデジタルリテラシー介入の有効性を比較した。
以上の結果から,実際の画像の信頼を保ちながら,奥行き認識を最大13%向上させることが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 20.57872238271025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfakes, i.e., images generated by artificial intelligence (AI), can erode trust in institutions and compromise election outcomes, as people often struggle to discern real images from deepfakes. Improving digital literacy can help address these challenges, yet scalable and effective approaches remain largely unexplored. Here, we compare the efficacy of five digital literacy interventions to boost people's ability to discern deepfakes: (1) textual guidance on common indicators of deepfakes; (2) visual demonstrations of these indicators; (3) a gamified exercise for identifying deepfakes; (4) implicit learning through repeated exposure and feedback; and (5) explanations of how deepfakes are generated with the help of AI. We conducted an experiment with N=1,200 participants from the United States to test the immediate and long-term effectiveness of our interventions. Our results show that our interventions can boost deepfake discernment by up to 13 percentage points while maintaining trust in real images. Altogether, our approach is scalable, suitable for diverse populations, and highly effective for boosting deepfake detection while maintaining trust in truthful information.
- Abstract(参考訳): ディープフェイク(Deepfakes)、すなわち人工知能(AI)によって生成された画像は、ディープフェイクから実際のイメージを識別するのにしばしば苦労するため、機関への信頼を損なったり、選挙結果に妥協する可能性がある。
デジタルリテラシーの改善はこれらの課題に対処する上で有効だが、スケーラブルで効果的なアプローチは未解決のままである。
本稿では、ディープフェイクを識別する能力を高めるための5つのデジタルリテラシー介入の有効性を比較し、(1)ディープフェイクの共通指標に関するテキストガイダンス、(2)視覚的な表示、(3)ディープフェイクの識別のためのゲーミフィケーションエクササイズ、(4)繰り返し露出とフィードバックによる暗黙的な学習、(5)AIの助けを借りてディープフェイクがどのように生成されるかを説明する。
当科におけるN=1,200名を対象に,当科における介入の即時的および長期的効果の検証を行った。
以上の結果から,実際の画像の信頼を保ちながら,奥行き認識を最大13%向上させることが可能であることが示唆された。
いずれにせよ,我々のアプローチはスケーラブルであり,多様な個体群に適しており,真理情報への信頼を維持しつつ,深度検出の促進に極めて有効である。
関連論文リスト
- Knowledge-Guided Prompt Learning for Deepfake Facial Image Detection [54.26588902144298]
ディープフェイク顔画像検出のための知識誘導型プロンプト学習法を提案する。
具体的には、学習可能なプロンプトの最適化を導くための専門家知識として、大規模言語モデルから偽造関連プロンプトを抽出する。
提案手法は最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2025-01-01T02:18:18Z) - Understanding Audiovisual Deepfake Detection: Techniques, Challenges, Human Factors and Perceptual Insights [49.81915942821647]
ディープラーニングは様々な分野に適用され、ディープフェイク検出への影響は例外ではない。
ディープフェイク(英: Deepfakes)は、政治的偽造、フィッシング、スランダリング、偽情報の拡散に偽装的に使用できる、偽物だが現実的な合成コンテンツである。
本稿では,ディープフェイク検出戦略の有効性を改善し,サイバーセキュリティとメディアの整合性に関する今後の研究を導くことを目的とする。
論文 参考訳(メタデータ) (2024-11-12T09:02:11Z) - EEG-Features for Generalized Deepfake Detection [3.7117930046173173]
本稿では,脳波を用いたディープフェイク検出のための新しい手法について検討する。
予備的な結果は、人間のニューラル処理信号がDeepfake検出フレームワークにうまく統合できることを示唆している。
我々の研究は、デジタルリアリズムが人間の認知システムにどのように埋め込まれているかを理解するための次のステップを提供する。
論文 参考訳(メタデータ) (2024-05-14T12:06:44Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Deepfake Caricatures: Amplifying attention to artifacts increases deepfake detection by humans and machines [16.41264978552925]
ディープフェイクビデオのアーティファクトを増幅するフレームワークを導入し、人々がより検出できるようにする。
ユーザスタディでは,映像提示時間やユーザエンゲージメントレベルを通じて,Caricaturesが人間の検出を大幅に増加させることを示した。
また,Artifact Attentionモジュールを組み込んだディープフェイク検出モデルを導入し,精度とロバスト性を向上させる。
論文 参考訳(メタデータ) (2022-06-01T14:43:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。