論文の概要: Human Brain Exhibits Distinct Patterns When Listening to Fake Versus Real Audio: Preliminary Evidence
- arxiv url: http://arxiv.org/abs/2402.14982v3
- Date: Tue, 9 Jul 2024 02:21:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 23:51:16.471315
- Title: Human Brain Exhibits Distinct Patterns When Listening to Fake Versus Real Audio: Preliminary Evidence
- Title(参考訳): 真音を聴く時、人間の脳が特定のパターンを識別する:予備的証拠
- Authors: Mahsa Salehi, Kalin Stefanov, Ehsan Shareghi,
- Abstract要約: 本稿では,実聴・偽聴における脳活動の変動について検討する。
予備的な結果は、最先端のディープフェイクオーディオ検出アルゴリズムによって学習された表現は、実際の音声と偽オーディオの間に明確なパターンを示さないことを示唆している。
- 参考スコア(独自算出の注目度): 10.773283625658513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we study the variations in human brain activity when listening to real and fake audio. Our preliminary results suggest that the representations learned by a state-of-the-art deepfake audio detection algorithm, do not exhibit clear distinct patterns between real and fake audio. In contrast, human brain activity, as measured by EEG, displays distinct patterns when individuals are exposed to fake versus real audio. This preliminary evidence enables future research directions in areas such as deepfake audio detection.
- Abstract(参考訳): 本稿では,実聴・偽聴における脳活動の変動について検討する。
予備的な結果は,最先端のディープフェイク音声検出アルゴリズムによって得られた表現は,実聴と偽聴の明確なパターンを示さないことを示唆している。
対照的に、脳波によって測定された人間の脳活動は、個人が偽の音声と実際の音声にさらされたときに異なるパターンを示す。
この予備的証拠は、ディープフェイク音声検出などの領域における将来の研究の方向性を可能にする。
関連論文リスト
- Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - SceneFake: An Initial Dataset and Benchmarks for Scene Fake Audio Detection [54.74467470358476]
本稿では,シーンフェイク音声検出のためのデータセットSceneFakeを提案する。
操作されたオーディオは、オリジナルオーディオの音響シーンを改ざんするだけで生成される。
本論文では,SceneFakeデータセット上での擬似音声検出ベンチマーク結果について報告する。
論文 参考訳(メタデータ) (2022-11-11T09:05:50Z) - An Initial Investigation for Detecting Vocoder Fingerprints of Fake
Audio [53.134423013599914]
本稿では,偽音声のボコーダ指紋を検出するための新しい問題を提案する。
8つの最先端ボコーダによって合成されたデータセットについて実験を行った。
論文 参考訳(メタデータ) (2022-08-20T09:23:21Z) - Human Detection of Political Speech Deepfakes across Transcripts, Audio,
and Video [4.78385214366452]
超現実的な視覚効果と音声効果の技術の進歩は、政治演説のディープフェイクビデオが、真のビデオ記録とはすぐに区別できないという懸念を引き起こしている。
我々は,2,215人の参加者による5つの事前登録されたランダム化実験を行い,人間が実際の政治的言論と製法をいかに正確に区別するかを評価する。
音声アクターの音声と同一のディープフェイクよりも、最先端のテキスト音声合成アルゴリズムが生成するオーディオでは、誤情報のベースレートが識別やディープフェイクに最小限に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2022-02-25T18:47:32Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - Geometry-Aware Multi-Task Learning for Binaural Audio Generation from
Video [94.42811508809994]
本研究では,映像中の視覚情報に基づいてモノラル(単一チャンネル)音声を音声に変換する音声空間化手法を提案する。
既存の手法では,映像フレームから直接抽出した視覚的特徴を活用するが,この手法は視覚ストリームに存在する幾何学的手がかりを明示的に切り離し,学習過程を導出する。
論文 参考訳(メタデータ) (2021-11-21T19:26:45Z) - Human Perception of Audio Deepfakes [0.0]
音声のディープフェイク検出における人間と機械の能力を比較した。
このマシンは、オーディオディープフェイクの検出において、人間よりも一般的に優れていることがわかった。
若年者の方が高齢者よりもオーディオディープフェイクの検出が優れているのに対して,IT専門家はレイメンに対して優位性はない。
論文 参考訳(メタデータ) (2021-07-20T09:19:42Z) - Learning Audio-Visual Dereverberation [87.52880019747435]
環境中の表面や物体を反射する音声からの残響は、人間の知覚の質を低下させるだけでなく、自動音声認識の精度にも深刻な影響を及ぼす。
我々の考えは、音声・視覚的観察から音声を除去することである。
そこで我々は,観測音と映像シーンの両方に基づいて残響を除去することを学ぶエンドツーエンドアプローチである,視覚インフォームド・デバーベレーション・オブ・オーディオ(VIDA)を紹介した。
論文 参考訳(メタデータ) (2021-06-14T20:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。