論文の概要: Human Perception of Audio Deepfakes
- arxiv url: http://arxiv.org/abs/2107.09667v1
- Date: Tue, 20 Jul 2021 09:19:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-22 14:07:17.516568
- Title: Human Perception of Audio Deepfakes
- Title(参考訳): 音声ディープフェイクの人間知覚
- Authors: Nicolas M. M\"uller, Karla Markert, Konstantin B\"ottinger
- Abstract要約: 音声のディープフェイク検出における人間と機械の能力を比較した。
このマシンは、オーディオディープフェイクの検出において、人間よりも一般的に優れていることがわかった。
若年者の方が高齢者よりもオーディオディープフェイクの検出が優れているのに対して,IT専門家はレイメンに対して優位性はない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent emergence of deepfakes, computerized realistic multimedia fakes,
brought the detection of manipulated and generated content to the forefront.
While many machine learning models for deepfakes detection have been proposed,
the human detection capabilities have remained far less explored. This is of
special importance as human perception differs from machine perception and
deepfakes are generally designed to fool the human. So far, this issue has only
been addressed in the area of images and video.
To compare the ability of humans and machines in detecting audio deepfakes,
we conducted an online gamified experiment in which we asked users to discern
bonda-fide audio samples from spoofed audio, generated with a variety of
algorithms. 200 users competed for 8976 game rounds with an artificial
intelligence (AI) algorithm trained for audio deepfake detection. With the
collected data we found that the machine generally outperforms the humans in
detecting audio deepfakes, but that the converse holds for a certain attack
type, for which humans are still more accurate. Furthermore, we found that
younger participants are on average better at detecting audio deepfakes than
older participants, while IT-professionals hold no advantage over laymen. We
conclude that it is important to combine human and machine knowledge in order
to improve audio deepfake detection.
- Abstract(参考訳): 近年のディープフェイク、コンピュータ化されたリアルなマルチメディアのフェイクは、操作されたコンテンツや生成されたコンテンツの検出を前面に押し出した。
ディープフェイク検出のための多くの機械学習モデルが提案されているが、人間の検出能力はまだ調査されていない。
人間の知覚は機械の知覚と異なり、ディープフェイクは一般に人間を騙すように設計されている。
これまでのところ、この問題は画像とビデオの領域でのみ解決されている。
音声深度検出における人間と機械の能力を比較するために,我々は,様々なアルゴリズムで生成されたスプーフ音声からボンダファイド音声サンプルを識別するオンラインゲーム化実験を行った。
200人のユーザが8976のゲームラウンドに出場し、オーディオディープフェイク検出のためにトレーニングされた人工知能(AI)アルゴリズムを使用した。
収集したデータから、このマシンはオーディオディープフェイクの検出において人間よりも優れていますが、その逆は人間の方が精度が高い特定の攻撃タイプを保っています。
さらに,若年者の方が高齢者よりオーディオディープフェイクの検出が優れているのに対して,IT専門家はレイメンに対して優位性はないことがわかった。
音声のディープフェイク検出を改善するためには,人間と機械の知識を組み合わせることが重要である。
関連論文リスト
- Human Brain Exhibits Distinct Patterns When Listening to Fake Versus
Real Audio: Preliminary Evidence [12.108091152017796]
本稿では,実聴・偽聴における脳活動の変動について検討する。
予備的な結果は、最先端のディープフェイクオーディオ検出アルゴリズムによって学習された表現は、実際の音声と偽オーディオの間に明確なパターンを示さないことを示唆している。
論文 参考訳(メタデータ) (2024-02-22T21:44:58Z) - Can deepfakes be created by novice users? [15.014868583616504]
先進的なコンピュータスキルを持つ参加者がDeepfakesを作れるかどうかを理解するために,ユーザスタディを実施している。
23.1%の参加者が音声とビデオで完全なDeepfakesを作成した。
私たちは、Deepfake検出ソフトウェアツールと人間の検査者に基づく分析を使用して、成功したDeepfake出力を偽、疑わしい、あるいは本物に分類します。
論文 参考訳(メタデータ) (2023-04-28T00:32:24Z) - SceneFake: An Initial Dataset and Benchmarks for Scene Fake Audio
Detection [59.083973178410474]
本稿では,シーンフェイク音声検出のためのこのようなデータセットを設計する(SceneFake)。
SceneFakeデータセットで操作された音声は、音声強調技術を用いて発話の音響シーンを改ざんするだけである。
テストセットで偽の発話を検出するだけでなく、偽検出モデルの一般化を評価して、不正な操作攻撃を検知する。
論文 参考訳(メタデータ) (2022-11-11T09:05:50Z) - System Fingerprint Recognition for Deepfake Audio: An Initial Dataset
and Investigation [51.06875680387692]
システム指紋認識(SFR)のための最初のディープフェイク音声データセットを提案する。
最新の最先端のディープラーニング技術を利用する7つの中国ベンダーの音声合成システムからデータセットを収集した。
論文 参考訳(メタデータ) (2022-08-21T05:15:40Z) - Deepfake Caricatures: Amplifying attention to artifacts increases
deepfake detection by humans and machines [17.7858728343141]
ディープフェイクは誤報を燃やすことでデジタルウェルビーイングに深刻な脅威をもたらす。
ディープフェイクビデオのアーティファクトを増幅するフレームワークを導入し、人々がより検出できるようにする。
本稿では,ビデオアーティファクトをハイライトするアテンションマップを作成するために,人間の反応をトレーニングする,新しい半教師付きアーティファクトアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2022-06-01T14:43:49Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - Evaluation of an Audio-Video Multimodal Deepfake Dataset using Unimodal
and Multimodal Detectors [18.862258543488355]
ディープフェイクはセキュリティとプライバシーの問題を引き起こす可能性がある。
ディープラーニング技術を使って人間の声をクローンする新しい領域も登場しつつある。
優れたディープフェイク検出器を開発するには、複数のモードのディープフェイクを検出する検出器が必要である。
論文 参考訳(メタデータ) (2021-09-07T11:00:20Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [73.61769046989258]
近年、ディープフェイク(deepfake deepfake)と呼ばれるフェイススワップ技術が悪用され、人々の関心が高まっている。
ディープフェイクに対する有望な対策はディープフェイク検出です。
deepfake検出器のトレーニングとテストをサポートするために、いくつかのdeepfakeデータセットがリリースされた。
インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介します。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z) - Deepfake detection: humans vs. machines [4.485016243130348]
クラウドソーシングのようなシナリオで実施した主観的研究で,ビデオがディープフェイクであるか否かを人間が確認することがいかに困難であるかを体系的に評価する。
各ビデオについて、簡単な質問は「ビデオの中の人物の顔は偽物か?」というものだった。
この評価は、人間の知覚が機械の知覚とは大きく異なるが、成功しても異なる方法ではディープフェイクに騙されることを示した。
論文 参考訳(メタデータ) (2020-09-07T15:20:37Z) - Emotions Don't Lie: An Audio-Visual Deepfake Detection Method Using
Affective Cues [75.1731999380562]
本稿では,実・偽のディープフェイクマルチメディアコンテンツを検出する学習手法を提案する。
我々は,同じビデオから2つのオーディオと視覚の類似性を抽出し,解析する。
我々は,いくつかのSOTAディープフェイク検出手法との比較を行い,DFDCでは84.4%,DF-TIMITデータセットでは96.6%の動画AUCを報告した。
論文 参考訳(メタデータ) (2020-03-14T22:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。