論文の概要: Audio Deepfake Perceptions in College Going Populations
- arxiv url: http://arxiv.org/abs/2112.03351v1
- Date: Mon, 6 Dec 2021 20:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 15:20:02.028507
- Title: Audio Deepfake Perceptions in College Going Populations
- Title(参考訳): 大学進学人口における音声のディープフェイク知覚
- Authors: Gabrielle Watson, Zahra Khanjani, Vandana P. Janeja
- Abstract要約: 本研究は,異なる専攻の大学生の聴覚深度知覚を評価することを目的としている。
また, 音声クリップにおける文法の難易度, 音声クリップの長さ, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク(deepfakes, ディープフェイク)))という言葉を知っている人, そうでない人)の相違から, 結果を分析した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfake is content or material that is generated or manipulated using AI
methods, to pass off as real. There are four different deepfake types: audio,
video, image and text. In this research we focus on audio deepfakes and how
people perceive it. There are several audio deepfake generation frameworks, but
we chose MelGAN which is a non-autoregressive and fast audio deepfake
generating framework, requiring fewer parameters. This study tries to assess
audio deepfake perceptions among college students from different majors. This
study also answers the question of how their background and major can affect
their perception towards AI generated deepfakes. We also analyzed the results
based on different aspects of: grade level, complexity of the grammar used in
the audio clips, length of the audio clips, those who knew the term deepfakes
and those who did not, as well as the political angle. It is interesting that
the results show when an audio clip has a political connotation, it can affect
what people think about whether it is real or fake, even if the content is
fairly similar. This study also explores the question of how background and
major can affect perception towards deepfakes.
- Abstract(参考訳): deepfakeは、aiメソッドを使用して生成または操作されたコンテンツまたは素材で、現実として渡す。
ディープフェイクにはオーディオ、ビデオ、画像、テキストの4種類がある。
本研究では,音声のディープフェイクと,その認識方法に着目した。
オーディオディープフェイク生成フレームワークはいくつかありますが,非自己回帰的で高速なオーディオディープフェイク生成フレームワークであるMelGANを選択しました。
本研究は,異なる専攻の大学生の聴覚深度知覚を評価することを目的とする。
この研究はまた、彼らのバックグラウンドとメジャーがAI生成したディープフェイクに対する認識にどのように影響するかという疑問にも答える。
また, 評価レベル, 音声クリップにおける文法の複雑さ, 音声クリップの長さ, ディープフェイクという言葉を知っている人, そうでない人, 政治的角度など, さまざまな側面から分析を行った。
音声クリップが政治的意味を持つ場合、たとえ内容がよく似ているとしても、それが本物であるか偽物なのかについて人々がどう考えるかに影響を与えることは興味深い。
この研究はまた、背景とメジャーがディープフェイクに対する知覚にどのように影響するかという疑問を探っている。
関連論文リスト
- Deepfake CAPTCHA: A Method for Preventing Fake Calls [5.810459869589559]
リアルタイムディープフェイク対策としてD-CAPTCHAを提案する。
アプローチは、ディープフェイクモデルに挑戦して、その能力を超えるコンテンツを生成することで、相手をスポットライトに強制することである。
既存のCAPTCHAとは対照的に、コンテンツを分類する能力とは対照的に、コンテンツを作成するAIの能力に挑戦する。
論文 参考訳(メタデータ) (2023-01-08T15:34:19Z) - SceneFake: An Initial Dataset and Benchmarks for Scene Fake Audio
Detection [59.083973178410474]
本稿では,シーンフェイク音声検出のためのこのようなデータセットを設計する(SceneFake)。
SceneFakeデータセットで操作された音声は、音声強調技術を用いて発話の音響シーンを改ざんするだけである。
テストセットで偽の発話を検出するだけでなく、偽検出モデルの一般化を評価して、不正な操作攻撃を検知する。
論文 参考訳(メタデータ) (2022-11-11T09:05:50Z) - System Fingerprint Recognition for Deepfake Audio: An Initial Dataset
and Investigation [51.06875680387692]
システム指紋認識(SFR)のための最初のディープフェイク音声データセットを提案する。
最新の最先端のディープラーニング技術を利用する7つの中国ベンダーの音声合成システムからデータセットを収集した。
論文 参考訳(メタデータ) (2022-08-21T05:15:40Z) - Video Manipulations Beyond Faces: A Dataset with Human-Machine Analysis [60.13902294276283]
我々は826の動画(413のリアルと413の操作)からなるデータセットであるVideoShamを提示する。
既存のディープフェイクデータセットの多くは、2種類の顔操作にのみ焦点をあてている。
我々の分析によると、最先端の操作検出アルゴリズムはいくつかの特定の攻撃に対してのみ有効であり、VideoShamではうまくスケールしない。
論文 参考訳(メタデータ) (2022-07-26T17:39:04Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Human Detection of Political Speech Deepfakes across Transcripts, Audio,
and Video [4.78385214366452]
超現実的な視覚効果と音声効果の技術の進歩は、政治演説のディープフェイクビデオが、真のビデオ記録とはすぐに区別できないという懸念を引き起こしている。
我々は,2,215人の参加者による5つの事前登録されたランダム化実験を行い,人間が実際の政治的言論と製法をいかに正確に区別するかを評価する。
音声アクターの音声と同一のディープフェイクよりも、最先端のテキスト音声合成アルゴリズムが生成するオーディオでは、誤情報のベースレートが識別やディープフェイクに最小限に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2022-02-25T18:47:32Z) - ADD 2022: the First Audio Deep Synthesis Detection Challenge [109.59598164826859]
最初のオーディオディープ合成検出チャレンジ(ADD)は、ギャップを埋めるために動機付けられた。
ADD 2022には、低品質の偽オーディオ検出(LF)、部分的に偽オーディオ検出(PF)、オーディオ偽ゲーム(FG)の3つのトラックが含まれている。
論文 参考訳(メタデータ) (2022-02-17T03:29:20Z) - How Deep Are the Fakes? Focusing on Audio Deepfake: A Survey [0.0]
本稿は、2016年から2020年にかけてのオーディオディープフェイク研究を批判的に分析し、提供する。
このサーベイでは、1)異なるディープフェイクカテゴリ、2)どのように作成され、検出されるか、3)この領域における最新のトレンドと検出方法の欠点について、読者に要約する。
この結果から,GAN(Generative Adversarial Networks),CNN(Convolutional Neural Networks),DNN(Deep Neural Networks)がディープフェイクの生成と検出の一般的な方法であることが判明した。
論文 参考訳(メタデータ) (2021-11-28T18:28:30Z) - FakeAVCeleb: A Novel Audio-Video Multimodal Deepfake Dataset [21.199288324085444]
近年,人間の声のクローン化や合成という新たな課題が表面化しつつある。
ディープフェイクビデオとオーディオを使った偽造攻撃の脅威が高まっているため、ビデオとオーディオの両方に焦点を当てた新しいディープフェイク検知器が求められている。
本稿では, ディープフェイク映像だけでなく, 合成音声も含む新しいオーディオ・ビデオ・ディープフェイク・データセット(FakeAVCeleb)を提案する。
論文 参考訳(メタデータ) (2021-08-11T07:49:36Z) - Human Perception of Audio Deepfakes [0.0]
音声のディープフェイク検出における人間と機械の能力を比較した。
このマシンは、オーディオディープフェイクの検出において、人間よりも一般的に優れていることがわかった。
若年者の方が高齢者よりもオーディオディープフェイクの検出が優れているのに対して,IT専門家はレイメンに対して優位性はない。
論文 参考訳(メタデータ) (2021-07-20T09:19:42Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [73.61769046989258]
近年、ディープフェイク(deepfake deepfake)と呼ばれるフェイススワップ技術が悪用され、人々の関心が高まっている。
ディープフェイクに対する有望な対策はディープフェイク検出です。
deepfake検出器のトレーニングとテストをサポートするために、いくつかのdeepfakeデータセットがリリースされた。
インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介します。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。