論文の概要: Can deepfakes be created by novice users?
- arxiv url: http://arxiv.org/abs/2304.14576v1
- Date: Fri, 28 Apr 2023 00:32:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 15:36:09.185283
- Title: Can deepfakes be created by novice users?
- Title(参考訳): deepfakesは初心者ユーザーによって作成できるのか?
- Authors: Pulak Mehta, Gauri Jagatap, Kevin Gallagher, Brian Timmerman, Progga
Deb, Siddharth Garg, Rachel Greenstadt, Brendan Dolan-Gavitt
- Abstract要約: 先進的なコンピュータスキルを持つ参加者がDeepfakesを作れるかどうかを理解するために,ユーザスタディを実施している。
23.1%の参加者が音声とビデオで完全なDeepfakesを作成した。
私たちは、Deepfake検出ソフトウェアツールと人間の検査者に基づく分析を使用して、成功したDeepfake出力を偽、疑わしい、あるいは本物に分類します。
- 参考スコア(独自算出の注目度): 15.014868583616504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in machine learning and computer vision have led to the
proliferation of Deepfakes. As technology democratizes over time, there is an
increasing fear that novice users can create Deepfakes, to discredit others and
undermine public discourse. In this paper, we conduct user studies to
understand whether participants with advanced computer skills and varying
levels of computer science expertise can create Deepfakes of a person saying a
target statement using limited media files. We conduct two studies; in the
first study (n = 39) participants try creating a target Deepfake in a
constrained time frame using any tool they desire. In the second study (n = 29)
participants use pre-specified deep learning-based tools to create the same
Deepfake. We find that for the first study, 23.1% of the participants
successfully created complete Deepfakes with audio and video, whereas, for the
second user study, 58.6% of the participants were successful in stitching
target speech to the target video. We further use Deepfake detection software
tools as well as human examiner-based analysis, to classify the successfully
generated Deepfake outputs as fake, suspicious, or real. The software detector
classified 80% of the Deepfakes as fake, whereas the human examiners classified
100% of the videos as fake. We conclude that creating Deepfakes is a simple
enough task for a novice user given adequate tools and time; however, the
resulting Deepfakes are not sufficiently real-looking and are unable to
completely fool detection software as well as human examiners
- Abstract(参考訳): 機械学習とコンピュータビジョンの最近の進歩は、Deepfakesの普及につながっている。
テクノロジーの民主化が進むにつれて、初心者がDeepfakesを作り、他人を軽視し、世論を損なう恐れが高まっている。
本稿では,高度なコンピュータスキルと様々なレベルのコンピュータサイエンスの知識を持つ参加者が,限られたメディアファイルを用いてターゲットステートメントを述べる人のディープフェイクを生み出すことができるかを理解するために,ユーザ研究を行う。
最初の研究(n = 39)では、参加者が望むツールを使って、制約のある時間枠でDeepfakeをターゲットにしようとします。
第2の研究(n = 29)では、参加者は同じDeepfakeを作成するために、事前に特定されたディープラーニングベースのツールを使用します。
第1の研究では、被験者の23.1%が音声とビデオによる完全なディープフェイクの作成に成功し、第2のユーザ調査では、ターゲット音声をターゲットビデオに縫い合わせるのに58.6%が成功した。
さらに、Deepfake検出ソフトウェアツールと人間の検査者に基づく分析を使用して、成功したDeepfake出力を偽、疑わしい、あるいは本物に分類する。
ソフトウェア検出器はDeepfakesの80%をフェイクと分類し、人間の検査官は100%の動画をフェイクと分類しました。
Deepfakesの作成は、初心者に十分なツールと時間を与えるのに十分な作業であると結論づけるが、結果のDeepfakesは十分にリアルに見えず、人間の検査者だけでなく、ソフトウェアを完全に騙すことはできない。
関連論文リスト
- Understanding Audiovisual Deepfake Detection: Techniques, Challenges, Human Factors and Perceptual Insights [49.81915942821647]
ディープラーニングは様々な分野に適用され、ディープフェイク検出への影響は例外ではない。
ディープフェイク(英: Deepfakes)は、政治的偽造、フィッシング、スランダリング、偽情報の拡散に偽装的に使用できる、偽物だが現実的な合成コンテンツである。
本稿では,ディープフェイク検出戦略の有効性を改善し,サイバーセキュリティとメディアの整合性に関する今後の研究を導くことを目的とする。
論文 参考訳(メタデータ) (2024-11-12T09:02:11Z) - Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - DF40: Toward Next-Generation Deepfake Detection [62.073997142001424]
既存の研究は、ある特定のデータセットで検出器をトレーニングし、他の一般的なディープフェイクデータセットでテストすることで、トップノーチ検出アルゴリズムとモデルを識別する。
しかし、これらの「勝者」は現実の世界に潜む無数の現実的で多様なディープフェイクに取り組むために真に応用できるのだろうか?
我々は,40の異なるディープフェイク技術からなるDF40という,高度に多様なディープフェイク検出データセットを構築した。
論文 参考訳(メタデータ) (2024-06-19T12:35:02Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - DeePhy: On Deepfake Phylogeny [58.01631614114075]
DeePhyは、新しいDeepfake Phylogenyデータセットである。
6つのディープフェイク検出アルゴリズムを用いて,DeePhyデータセットのベンチマークを示す。
論文 参考訳(メタデータ) (2022-09-19T15:30:33Z) - Using Deep Learning to Detecting Deepfakes [0.0]
ディープフェイク(Deepfakes)とは、ある人物の顔を別のコンピュータが生成した顔に置き換えるビデオまたは画像である。
このオンライン脅威に対抗するために、研究者たちはディープフェイクを検出するモデルを開発した。
本研究では、ディープラーニングアルゴリズムを用いて、この略奪的な脅威に対処する様々なディープフェイク検出モデルについて検討する。
論文 参考訳(メタデータ) (2022-07-27T17:05:16Z) - Deepfake Caricatures: Amplifying attention to artifacts increases
deepfake detection by humans and machines [17.7858728343141]
ディープフェイクは誤報を燃やすことでデジタルウェルビーイングに深刻な脅威をもたらす。
ディープフェイクビデオのアーティファクトを増幅するフレームワークを導入し、人々がより検出できるようにする。
本稿では,ビデオアーティファクトをハイライトするアテンションマップを作成するために,人間の反応をトレーニングする,新しい半教師付きアーティファクトアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2022-06-01T14:43:49Z) - Human Perception of Audio Deepfakes [6.40753664615445]
音声のディープフェイクを検出するための人間と機械の能力を比較する。
我々の実験では、472人のユニークなユーザーが14912ラウンドで最先端のAIディープフェイク検出アルゴリズムと競合した。
人間とディープフェイク検出アルゴリズムは類似の強みと弱みを共有しており、どちらも特定の種類の攻撃を検出するのに苦労している。
論文 参考訳(メタデータ) (2021-07-20T09:19:42Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z) - Deepfake detection: humans vs. machines [4.485016243130348]
クラウドソーシングのようなシナリオで実施した主観的研究で,ビデオがディープフェイクであるか否かを人間が確認することがいかに困難であるかを体系的に評価する。
各ビデオについて、簡単な質問は「ビデオの中の人物の顔は偽物か?」というものだった。
この評価は、人間の知覚が機械の知覚とは大きく異なるが、成功しても異なる方法ではディープフェイクに騙されることを示した。
論文 参考訳(メタデータ) (2020-09-07T15:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。