論文の概要: Behind the Deepfake: 8% Create; 90% Concerned. Surveying public exposure to and perceptions of deepfakes in the UK
- arxiv url: http://arxiv.org/abs/2407.05529v1
- Date: Mon, 8 Jul 2024 00:22:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 17:29:37.345792
- Title: Behind the Deepfake: 8% Create; 90% Concerned. Surveying public exposure to and perceptions of deepfakes in the UK
- Title(参考訳): ディープフェイクの裏側:8%の創造、90%の懸念 : イギリスにおけるディープフェイクに対する公衆の暴露と認識調査
- Authors: Tvesha Sippy, Florence Enock, Jonathan Bright, Helen Z. Margetts,
- Abstract要約: 本稿は、英国成人1403人の全国代表調査から得られた知見に基づいて、ディープフェイクの公的な露出と知覚について考察する。
平均して15%が、ディープフェイクポルノ、ディープフェイク詐欺や詐欺などの有害なディープフェイクに曝されていると報告している。
有害なディープフェイクへの曝露は比較的少なかったが、ディープフェイクに対する認識と恐怖は高かった。
ほとんどの回答者は、ディープフェイクがオンラインの児童性的虐待の素材に追加され、情報への不信を高め、世論を操作できるのではないかと心配していた。
- 参考スコア(独自算出の注目度): 1.0228192660021962
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article examines public exposure to and perceptions of deepfakes based on insights from a nationally representative survey of 1403 UK adults. The survey is one of the first of its kind since recent improvements in deepfake technology and widespread adoption of political deepfakes. The findings reveal three key insights. First, on average, 15% of people report exposure to harmful deepfakes, including deepfake pornography, deepfake frauds/scams and other potentially harmful deepfakes such as those that spread health/religious misinformation/propaganda. In terms of common targets, exposure to deepfakes featuring celebrities was 50.2%, whereas those featuring politicians was 34.1%. And 5.7% of respondents recall exposure to a selection of high profile political deepfakes in the UK. Second, while exposure to harmful deepfakes was relatively low, awareness of and fears about deepfakes were high (and women were significantly more likely to report experiencing such fears than men). As with fears, general concerns about the spread of deepfakes were also high; 90.4% of the respondents were either very concerned or somewhat concerned about this issue. Most respondents (at least 91.8%) were concerned that deepfakes could add to online child sexual abuse material, increase distrust in information and manipulate public opinion. Third, while awareness about deepfakes was high, usage of deepfake tools was relatively low (8%). Most respondents were not confident about their detection abilities and were trustful of audiovisual content online. Our work highlights how the problem of deepfakes has become embedded in public consciousness in just a few years; it also highlights the need for media literacy programmes and other policy interventions to address the spread of harmful deepfakes.
- Abstract(参考訳): 本稿は、英国成人1403人の全国代表調査から得られた知見に基づいて、ディープフェイクの公的な露出と知覚について考察する。
この調査は、近年のディープフェイク技術の改善や、政治的ディープフェイクの普及以来初めてのものだ。
この結果は3つの重要な洞察を浮き彫りにした。
まず、15%の人が、ディープフェイクポルノ、ディープフェイク詐欺や、健康や宗教的な誤報やプロパガンダを広めるディープフェイクなど、有害なディープフェイクに曝されていると報告している。
一般のターゲットとしては、有名人によるディープフェイクへの露出は50.2%、政治家による露出は34.1%だった。
回答者の5.7%は、英国の政治的ディープフェイクに注目している。
第二に、有害なディープフェイクへの曝露は比較的少なかったが、ディープフェイクに対する認識と恐怖は高い(そして女性は男性よりもそのような恐怖を経験する可能性が高い)。
恐怖と同様に、ディープフェイクの拡散に関する一般的な懸念も高く、回答者の90.4%はこの問題を非常に心配していたか、いくらか心配していた。
ほとんどの回答者(少なくとも91.8%)は、ディープフェイクがオンラインの児童性的虐待の素材に追加され、情報の不信を高め、世論を操ることを恐れていた。
第3に,ディープフェイクに対する意識が高い一方で,ディープフェイクツールの使用率が低い(8%)。
ほとんどの回答者は検出能力に自信がなく、オンラインでの視聴覚コンテンツに自信を持っていました。
我々の研究は、ほんの数年でディープフェイクの問題が公衆の意識に浸透したことを強調し、また有害なディープフェイクの拡散に対処するためのメディアリテラシープログラムやその他の政策介入の必要性も強調している。
関連論文リスト
- Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - Detecting Deepfakes Without Seeing Any [43.113936505905336]
ファクトチェック」は、偽ニュース検知からゼロデイディープフェイク攻撃を検出するために適応される。
FACTORは、ディープフェイクの事実チェックのレシピで、重要な攻撃設定でそのパワーを実証する。
トレーニング不要で、既製の機能のみに依存しており、実装が非常に簡単で、ディープフェイクは見当たらない。
論文 参考訳(メタデータ) (2023-11-02T17:59:31Z) - Recent Advancements In The Field Of Deepfake Detection [0.0]
ディープフェイク(英: Deepfake)とは、画像がデジタルに変更されたり、あるいは部分的に他の誰かの画像に置き換えられた人物の写真またはビデオである。
ディープフェイクは様々な問題を引き起こす可能性があり、しばしば悪意を持って使用される。
本研究の目的は, ディープフェイク検出の分野での様々な手法と進歩を調査し, 分析することである。
論文 参考訳(メタデータ) (2023-08-10T13:24:27Z) - Hybrid Deepfake Detection Utilizing MLP and LSTM [0.0]
ディープフェイク(deepfake)は、最新の技術進歩にともなう発明である。
本稿では,2つのディープラーニングアルゴリズムを用いた新しいディープフェイク検出方式を提案する。
我々は、140k RealとFake Facesというデータセットを使用して、74.7%の精度で、ディープフェイクによって変化した画像を検出する。
論文 参考訳(メタデータ) (2023-04-21T16:38:26Z) - DeePhy: On Deepfake Phylogeny [58.01631614114075]
DeePhyは、新しいDeepfake Phylogenyデータセットである。
6つのディープフェイク検出アルゴリズムを用いて,DeePhyデータセットのベンチマークを示す。
論文 参考訳(メタデータ) (2022-09-19T15:30:33Z) - Robust Deepfake On Unrestricted Media: Generation And Detection [46.576556314444865]
近年のディープラーニングの進歩は、ディープフェイク生成の大幅な改善につながっている。
この章では、ディープフェイクの生成と検出の進化と課題について論じる。
論文 参考訳(メタデータ) (2022-02-13T06:53:39Z) - How Deep Are the Fakes? Focusing on Audio Deepfake: A Survey [0.0]
本稿は、2016年から2020年にかけてのオーディオディープフェイク研究を批判的に分析し、提供する。
このサーベイでは、1)異なるディープフェイクカテゴリ、2)どのように作成され、検出されるか、3)この領域における最新のトレンドと検出方法の欠点について、読者に要約する。
この結果から,GAN(Generative Adversarial Networks),CNN(Convolutional Neural Networks),DNN(Deep Neural Networks)がディープフェイクの生成と検出の一般的な方法であることが判明した。
論文 参考訳(メタデータ) (2021-11-28T18:28:30Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。