論文の概要: How Deep Are the Fakes? Focusing on Audio Deepfake: A Survey
- arxiv url: http://arxiv.org/abs/2111.14203v1
- Date: Sun, 28 Nov 2021 18:28:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 18:03:52.837376
- Title: How Deep Are the Fakes? Focusing on Audio Deepfake: A Survey
- Title(参考訳): フェイクの深さはどのくらい?
オーディオディープフェイクに焦点を当てた調査
- Authors: Zahra Khanjani, Gabrielle Watson, and Vandana P. Janeja
- Abstract要約: 本稿は、2016年から2020年にかけてのオーディオディープフェイク研究を批判的に分析し、提供する。
このサーベイでは、1)異なるディープフェイクカテゴリ、2)どのように作成され、検出されるか、3)この領域における最新のトレンドと検出方法の欠点について、読者に要約する。
この結果から,GAN(Generative Adversarial Networks),CNN(Convolutional Neural Networks),DNN(Deep Neural Networks)がディープフェイクの生成と検出の一般的な方法であることが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfake is content or material that is synthetically generated or
manipulated using artificial intelligence (AI) methods, to be passed off as
real and can include audio, video, image, and text synthesis. This survey has
been conducted with a different perspective compared to existing survey papers,
that mostly focus on just video and image deepfakes. This survey not only
evaluates generation and detection methods in the different deepfake
categories, but mainly focuses on audio deepfakes that are overlooked in most
of the existing surveys. This paper critically analyzes and provides a unique
source of audio deepfake research, mostly ranging from 2016 to 2020. To the
best of our knowledge, this is the first survey focusing on audio deepfakes in
English. This survey provides readers with a summary of 1) different deepfake
categories 2) how they could be created and detected 3) the most recent trends
in this domain and shortcomings in detection methods 4) audio deepfakes, how
they are created and detected in more detail which is the main focus of this
paper. We found that Generative Adversarial Networks(GAN), Convolutional Neural
Networks (CNN), and Deep Neural Networks (DNN) are common ways of creating and
detecting deepfakes. In our evaluation of over 140 methods we found that the
majority of the focus is on video deepfakes and in particular in the generation
of video deepfakes. We found that for text deepfakes there are more generation
methods but very few robust methods for detection, including fake news
detection, which has become a controversial area of research because of the
potential of heavy overlaps with human generation of fake content. This paper
is an abbreviated version of the full survey and reveals a clear need to
research audio deepfakes and particularly detection of audio deepfakes.
- Abstract(参考訳): Deepfake(ディープフェイク、ディープフェイク)は、人工知能(AI)の手法で合成または操作されたコンテンツまたは材料であり、音声、ビデオ、画像、テキスト合成を含むことができる。
この調査は、ビデオと画像のディープフェイクだけに焦点を当てた既存の調査論文とは異なる視点で実施された。
本調査は,異なるディープフェイクカテゴリにおける生成・検出方法を評価するだけでなく,既存の調査の大半で見落とされたオーディオディープフェイクに着目した。
本稿は、2016年から2020年にかけてのオーディオディープフェイク研究を批判的に分析し、提供する。
私たちの知る限りでは、英語におけるオーディオディープフェイクに焦点を当てた初めての調査である。
この調査は読者に概要を提供する。
1) 異なるディープフェイク分類
2) どのようにして
3)この領域の最新の動向と検出方法の欠点
4) 音のディープフェイク, 音の作り方, 詳細は本論文の主な焦点である。
この結果から,GAN(Generative Adversarial Networks),CNN(Convolutional Neural Networks),DNN(Deep Neural Networks)はディープフェイクの生成と検出の一般的な方法であることがわかった。
140以上の手法を評価した結果,主にビデオディープフェイク,特にビデオディープフェイクの生成に焦点が当てられていることがわかった。
テキストのディープフェイクには、偽ニュース検出などの堅牢な検出方法が多数存在するが、人間の生成する偽コンテンツと重なる可能性があるため、議論の的になっている。
本論文は,全調査の短縮版であり,オーディオディープフェイクの研究,特にオーディオディープフェイクの検出の必要性を明らかにする。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - DF40: Toward Next-Generation Deepfake Detection [62.073997142001424]
既存の研究は、ある特定のデータセットで検出器をトレーニングし、他の一般的なディープフェイクデータセットでテストすることで、トップノーチ検出アルゴリズムとモデルを識別する。
しかし、これらの「勝者」は現実の世界に潜む無数の現実的で多様なディープフェイクに取り組むために真に応用できるのだろうか?
我々は,40の異なるディープフェイク技術からなるDF40という,高度に多様なディープフェイク検出データセットを構築した。
論文 参考訳(メタデータ) (2024-06-19T12:35:02Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - Recent Advancements In The Field Of Deepfake Detection [0.0]
ディープフェイク(英: Deepfake)とは、画像がデジタルに変更されたり、あるいは部分的に他の誰かの画像に置き換えられた人物の写真またはビデオである。
ディープフェイクは様々な問題を引き起こす可能性があり、しばしば悪意を持って使用される。
本研究の目的は, ディープフェイク検出の分野での様々な手法と進歩を調査し, 分析することである。
論文 参考訳(メタデータ) (2023-08-10T13:24:27Z) - System Fingerprint Recognition for Deepfake Audio: An Initial Dataset
and Investigation [51.06875680387692]
システム指紋認識(SFR)のための最初のディープフェイク音声データセットを提案する。
最新の最先端のディープラーニング技術を利用する7つの中国ベンダーの音声合成システムからデータセットを収集した。
論文 参考訳(メタデータ) (2022-08-21T05:15:40Z) - Audio Deepfake Perceptions in College Going Populations [0.0]
本研究は,異なる専攻の大学生の聴覚深度知覚を評価することを目的としている。
また, 音声クリップにおける文法の難易度, 音声クリップの長さ, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク)))という言葉を知っている人, そうでない人)の相違から, 結果を分析した。
論文 参考訳(メタデータ) (2021-12-06T20:53:41Z) - Evaluation of an Audio-Video Multimodal Deepfake Dataset using Unimodal
and Multimodal Detectors [18.862258543488355]
ディープフェイクはセキュリティとプライバシーの問題を引き起こす可能性がある。
ディープラーニング技術を使って人間の声をクローンする新しい領域も登場しつつある。
優れたディープフェイク検出器を開発するには、複数のモードのディープフェイクを検出する検出器が必要である。
論文 参考訳(メタデータ) (2021-09-07T11:00:20Z) - FakeAVCeleb: A Novel Audio-Video Multimodal Deepfake Dataset [21.199288324085444]
近年,人間の声のクローン化や合成という新たな課題が表面化しつつある。
ディープフェイクビデオとオーディオを使った偽造攻撃の脅威が高まっているため、ビデオとオーディオの両方に焦点を当てた新しいディープフェイク検知器が求められている。
本稿では, ディープフェイク映像だけでなく, 合成音声も含む新しいオーディオ・ビデオ・ディープフェイク・データセット(FakeAVCeleb)を提案する。
論文 参考訳(メタデータ) (2021-08-11T07:49:36Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z) - The Creation and Detection of Deepfakes: A Survey [32.04375809239154]
生成的ディープラーニングアルゴリズムは、何が本物かと何が偽なのかを区別することが難しい点まで進歩している。
本稿では、ディープフェイクの作成と検出について検討し、これらのアーキテクチャがどのように機能するかを詳細に把握する。
論文 参考訳(メタデータ) (2020-04-23T13:35:49Z) - Emotions Don't Lie: An Audio-Visual Deepfake Detection Method Using
Affective Cues [75.1731999380562]
本稿では,実・偽のディープフェイクマルチメディアコンテンツを検出する学習手法を提案する。
我々は,同じビデオから2つのオーディオと視覚の類似性を抽出し,解析する。
我々は,いくつかのSOTAディープフェイク検出手法との比較を行い,DFDCでは84.4%,DF-TIMITデータセットでは96.6%の動画AUCを報告した。
論文 参考訳(メタデータ) (2020-03-14T22:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。