論文の概要: Audio Deepfake Perceptions in College Going Populations
- arxiv url: http://arxiv.org/abs/2112.03351v1
- Date: Mon, 6 Dec 2021 20:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 15:20:02.028507
- Title: Audio Deepfake Perceptions in College Going Populations
- Title(参考訳): 大学進学人口における音声のディープフェイク知覚
- Authors: Gabrielle Watson, Zahra Khanjani, Vandana P. Janeja
- Abstract要約: 本研究は,異なる専攻の大学生の聴覚深度知覚を評価することを目的としている。
また, 音声クリップにおける文法の難易度, 音声クリップの長さ, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク)))という言葉を知っている人, そうでない人)の相違から, 結果を分析した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfake is content or material that is generated or manipulated using AI
methods, to pass off as real. There are four different deepfake types: audio,
video, image and text. In this research we focus on audio deepfakes and how
people perceive it. There are several audio deepfake generation frameworks, but
we chose MelGAN which is a non-autoregressive and fast audio deepfake
generating framework, requiring fewer parameters. This study tries to assess
audio deepfake perceptions among college students from different majors. This
study also answers the question of how their background and major can affect
their perception towards AI generated deepfakes. We also analyzed the results
based on different aspects of: grade level, complexity of the grammar used in
the audio clips, length of the audio clips, those who knew the term deepfakes
and those who did not, as well as the political angle. It is interesting that
the results show when an audio clip has a political connotation, it can affect
what people think about whether it is real or fake, even if the content is
fairly similar. This study also explores the question of how background and
major can affect perception towards deepfakes.
- Abstract(参考訳): deepfakeは、aiメソッドを使用して生成または操作されたコンテンツまたは素材で、現実として渡す。
ディープフェイクにはオーディオ、ビデオ、画像、テキストの4種類がある。
本研究では,音声のディープフェイクと,その認識方法に着目した。
オーディオディープフェイク生成フレームワークはいくつかありますが,非自己回帰的で高速なオーディオディープフェイク生成フレームワークであるMelGANを選択しました。
本研究は,異なる専攻の大学生の聴覚深度知覚を評価することを目的とする。
この研究はまた、彼らのバックグラウンドとメジャーがAI生成したディープフェイクに対する認識にどのように影響するかという疑問にも答える。
また, 評価レベル, 音声クリップにおける文法の複雑さ, 音声クリップの長さ, ディープフェイクという言葉を知っている人, そうでない人, 政治的角度など, さまざまな側面から分析を行った。
音声クリップが政治的意味を持つ場合、たとえ内容がよく似ているとしても、それが本物であるか偽物なのかについて人々がどう考えるかに影響を与えることは興味深い。
この研究はまた、背景とメジャーがディープフェイクに対する知覚にどのように影響するかという疑問を探っている。
関連論文リスト
- Understanding Audiovisual Deepfake Detection: Techniques, Challenges, Human Factors and Perceptual Insights [49.81915942821647]
ディープラーニングは様々な分野に適用され、ディープフェイク検出への影響は例外ではない。
ディープフェイク(英: Deepfakes)は、政治的偽造、フィッシング、スランダリング、偽情報の拡散に偽装的に使用できる、偽物だが現実的な合成コンテンツである。
本稿では,ディープフェイク検出戦略の有効性を改善し,サイバーセキュリティとメディアの整合性に関する今後の研究を導くことを目的とする。
論文 参考訳(メタデータ) (2024-11-12T09:02:11Z) - Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - Deepfake CAPTCHA: A Method for Preventing Fake Calls [5.810459869589559]
リアルタイムディープフェイク対策としてD-CAPTCHAを提案する。
アプローチは、ディープフェイクモデルに挑戦して、その能力を超えるコンテンツを生成することで、相手をスポットライトに強制することである。
既存のCAPTCHAとは対照的に、コンテンツを分類する能力とは対照的に、コンテンツを作成するAIの能力に挑戦する。
論文 参考訳(メタデータ) (2023-01-08T15:34:19Z) - SceneFake: An Initial Dataset and Benchmarks for Scene Fake Audio Detection [54.74467470358476]
本稿では,シーンフェイク音声検出のためのデータセットSceneFakeを提案する。
操作されたオーディオは、オリジナルオーディオの音響シーンを改ざんするだけで生成される。
本論文では,SceneFakeデータセット上での擬似音声検出ベンチマーク結果について報告する。
論文 参考訳(メタデータ) (2022-11-11T09:05:50Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Human Detection of Political Speech Deepfakes across Transcripts, Audio,
and Video [4.78385214366452]
超現実的な視覚効果と音声効果の技術の進歩は、政治演説のディープフェイクビデオが、真のビデオ記録とはすぐに区別できないという懸念を引き起こしている。
我々は,2,215人の参加者による5つの事前登録されたランダム化実験を行い,人間が実際の政治的言論と製法をいかに正確に区別するかを評価する。
音声アクターの音声と同一のディープフェイクよりも、最先端のテキスト音声合成アルゴリズムが生成するオーディオでは、誤情報のベースレートが識別やディープフェイクに最小限に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2022-02-25T18:47:32Z) - How Deep Are the Fakes? Focusing on Audio Deepfake: A Survey [0.0]
本稿は、2016年から2020年にかけてのオーディオディープフェイク研究を批判的に分析し、提供する。
このサーベイでは、1)異なるディープフェイクカテゴリ、2)どのように作成され、検出されるか、3)この領域における最新のトレンドと検出方法の欠点について、読者に要約する。
この結果から,GAN(Generative Adversarial Networks),CNN(Convolutional Neural Networks),DNN(Deep Neural Networks)がディープフェイクの生成と検出の一般的な方法であることが判明した。
論文 参考訳(メタデータ) (2021-11-28T18:28:30Z) - FakeAVCeleb: A Novel Audio-Video Multimodal Deepfake Dataset [21.199288324085444]
近年,人間の声のクローン化や合成という新たな課題が表面化しつつある。
ディープフェイクビデオとオーディオを使った偽造攻撃の脅威が高まっているため、ビデオとオーディオの両方に焦点を当てた新しいディープフェイク検知器が求められている。
本稿では, ディープフェイク映像だけでなく, 合成音声も含む新しいオーディオ・ビデオ・ディープフェイク・データセット(FakeAVCeleb)を提案する。
論文 参考訳(メタデータ) (2021-08-11T07:49:36Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。