論文の概要: Can deepfakes be created by novice users?
- arxiv url: http://arxiv.org/abs/2304.14576v1
- Date: Fri, 28 Apr 2023 00:32:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 15:36:09.185283
- Title: Can deepfakes be created by novice users?
- Title(参考訳): deepfakesは初心者ユーザーによって作成できるのか?
- Authors: Pulak Mehta, Gauri Jagatap, Kevin Gallagher, Brian Timmerman, Progga
Deb, Siddharth Garg, Rachel Greenstadt, Brendan Dolan-Gavitt
- Abstract要約: 先進的なコンピュータスキルを持つ参加者がDeepfakesを作れるかどうかを理解するために,ユーザスタディを実施している。
23.1%の参加者が音声とビデオで完全なDeepfakesを作成した。
私たちは、Deepfake検出ソフトウェアツールと人間の検査者に基づく分析を使用して、成功したDeepfake出力を偽、疑わしい、あるいは本物に分類します。
- 参考スコア(独自算出の注目度): 15.014868583616504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in machine learning and computer vision have led to the
proliferation of Deepfakes. As technology democratizes over time, there is an
increasing fear that novice users can create Deepfakes, to discredit others and
undermine public discourse. In this paper, we conduct user studies to
understand whether participants with advanced computer skills and varying
levels of computer science expertise can create Deepfakes of a person saying a
target statement using limited media files. We conduct two studies; in the
first study (n = 39) participants try creating a target Deepfake in a
constrained time frame using any tool they desire. In the second study (n = 29)
participants use pre-specified deep learning-based tools to create the same
Deepfake. We find that for the first study, 23.1% of the participants
successfully created complete Deepfakes with audio and video, whereas, for the
second user study, 58.6% of the participants were successful in stitching
target speech to the target video. We further use Deepfake detection software
tools as well as human examiner-based analysis, to classify the successfully
generated Deepfake outputs as fake, suspicious, or real. The software detector
classified 80% of the Deepfakes as fake, whereas the human examiners classified
100% of the videos as fake. We conclude that creating Deepfakes is a simple
enough task for a novice user given adequate tools and time; however, the
resulting Deepfakes are not sufficiently real-looking and are unable to
completely fool detection software as well as human examiners
- Abstract(参考訳): 機械学習とコンピュータビジョンの最近の進歩は、Deepfakesの普及につながっている。
テクノロジーの民主化が進むにつれて、初心者がDeepfakesを作り、他人を軽視し、世論を損なう恐れが高まっている。
本稿では,高度なコンピュータスキルと様々なレベルのコンピュータサイエンスの知識を持つ参加者が,限られたメディアファイルを用いてターゲットステートメントを述べる人のディープフェイクを生み出すことができるかを理解するために,ユーザ研究を行う。
最初の研究(n = 39)では、参加者が望むツールを使って、制約のある時間枠でDeepfakeをターゲットにしようとします。
第2の研究(n = 29)では、参加者は同じDeepfakeを作成するために、事前に特定されたディープラーニングベースのツールを使用します。
第1の研究では、被験者の23.1%が音声とビデオによる完全なディープフェイクの作成に成功し、第2のユーザ調査では、ターゲット音声をターゲットビデオに縫い合わせるのに58.6%が成功した。
さらに、Deepfake検出ソフトウェアツールと人間の検査者に基づく分析を使用して、成功したDeepfake出力を偽、疑わしい、あるいは本物に分類する。
ソフトウェア検出器はDeepfakesの80%をフェイクと分類し、人間の検査官は100%の動画をフェイクと分類しました。
Deepfakesの作成は、初心者に十分なツールと時間を与えるのに十分な作業であると結論づけるが、結果のDeepfakesは十分にリアルに見えず、人間の検査者だけでなく、ソフトウェアを完全に騙すことはできない。
関連論文リスト
- Turn Fake into Real: Adversarial Head Turn Attacks Against Deepfake
Detection [58.1263969438364]
本稿では,3次元対向顔視によるディープフェイク検出器に対する最初の試みとして,対向頭部旋回(AdvHeat)を提案する。
実験では、現実的なブラックボックスシナリオにおいて、様々な検出器のAdvHeatに対する脆弱性を検証する。
さらなる分析により、AdvHeatは、クロス検出器転送性と防御に対する堅牢性の両方に対する従来の攻撃よりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-09-03T07:01:34Z) - DeePhy: On Deepfake Phylogeny [58.01631614114075]
DeePhyは、新しいDeepfake Phylogenyデータセットである。
6つのディープフェイク検出アルゴリズムを用いて,DeePhyデータセットのベンチマークを示す。
論文 参考訳(メタデータ) (2022-09-19T15:30:33Z) - System Fingerprint Recognition for Deepfake Audio: An Initial Dataset
and Investigation [51.06875680387692]
システム指紋認識(SFR)のための最初のディープフェイク音声データセットを提案する。
最新の最先端のディープラーニング技術を利用する7つの中国ベンダーの音声合成システムからデータセットを収集した。
論文 参考訳(メタデータ) (2022-08-21T05:15:40Z) - Using Deep Learning to Detecting Deepfakes [0.0]
ディープフェイク(Deepfakes)とは、ある人物の顔を別のコンピュータが生成した顔に置き換えるビデオまたは画像である。
このオンライン脅威に対抗するために、研究者たちはディープフェイクを検出するモデルを開発した。
本研究では、ディープラーニングアルゴリズムを用いて、この略奪的な脅威に対処する様々なディープフェイク検出モデルについて検討する。
論文 参考訳(メタデータ) (2022-07-27T17:05:16Z) - Deepfake Caricatures: Amplifying attention to artifacts increases
deepfake detection by humans and machines [17.7858728343141]
ディープフェイクは誤報を燃やすことでデジタルウェルビーイングに深刻な脅威をもたらす。
ディープフェイクビデオのアーティファクトを増幅するフレームワークを導入し、人々がより検出できるようにする。
本稿では,ビデオアーティファクトをハイライトするアテンションマップを作成するために,人間の反応をトレーニングする,新しい半教師付きアーティファクトアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2022-06-01T14:43:49Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Human Perception of Audio Deepfakes [0.0]
音声のディープフェイク検出における人間と機械の能力を比較した。
このマシンは、オーディオディープフェイクの検出において、人間よりも一般的に優れていることがわかった。
若年者の方が高齢者よりもオーディオディープフェイクの検出が優れているのに対して,IT専門家はレイメンに対して優位性はない。
論文 参考訳(メタデータ) (2021-07-20T09:19:42Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [73.61769046989258]
近年、ディープフェイク(deepfake deepfake)と呼ばれるフェイススワップ技術が悪用され、人々の関心が高まっている。
ディープフェイクに対する有望な対策はディープフェイク検出です。
deepfake検出器のトレーニングとテストをサポートするために、いくつかのdeepfakeデータセットがリリースされた。
インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介します。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z) - Deepfake detection: humans vs. machines [4.485016243130348]
クラウドソーシングのようなシナリオで実施した主観的研究で,ビデオがディープフェイクであるか否かを人間が確認することがいかに困難であるかを体系的に評価する。
各ビデオについて、簡単な質問は「ビデオの中の人物の顔は偽物か?」というものだった。
この評価は、人間の知覚が機械の知覚とは大きく異なるが、成功しても異なる方法ではディープフェイクに騙されることを示した。
論文 参考訳(メタデータ) (2020-09-07T15:20:37Z) - Emotions Don't Lie: An Audio-Visual Deepfake Detection Method Using
Affective Cues [75.1731999380562]
本稿では,実・偽のディープフェイクマルチメディアコンテンツを検出する学習手法を提案する。
我々は,同じビデオから2つのオーディオと視覚の類似性を抽出し,解析する。
我々は,いくつかのSOTAディープフェイク検出手法との比較を行い,DFDCでは84.4%,DF-TIMITデータセットでは96.6%の動画AUCを報告した。
論文 参考訳(メタデータ) (2020-03-14T22:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。