論文の概要: Creation and Detection of German Voice Deepfakes
- arxiv url: http://arxiv.org/abs/2108.01469v1
- Date: Mon, 2 Aug 2021 06:17:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 23:58:04.258740
- Title: Creation and Detection of German Voice Deepfakes
- Title(参考訳): ドイツ音声ディープフェイクの作成と検出
- Authors: Vanessa Barnekow, Dominik Binder, Niclas Kromrey, Pascal Munaretto,
Andreas Schaad and Felix Schmieder
- Abstract要約: 私たちは、参加者が他の参加者の声を偽造するために実際にどれだけのトレーニングデータが必要なのかを分析します。
100人以上の参加者によるユーザスタディは、本物と偽の音声を特定するのがいかに難しいかを示している。
社会的な意味について論じるとともに、機械学習技術を用いてそのような偽物を検知する方法を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthesizing voice with the help of machine learning techniques has made
rapid progress over the last years [1] and first high profile fraud cases have
been recently reported [2]. Given the current increase in using conferencing
tools for online teaching, we question just how easy (i.e. needed data,
hardware, skill set) it would be to create a convincing voice fake. We analyse
how much training data a participant (e.g. a student) would actually need to
fake another participants voice (e.g. a professor). We provide an analysis of
the existing state of the art in creating voice deep fakes, as well as offer
detailed technical guidance and evidence of just how much effort is needed to
copy a voice. A user study with more than 100 participants shows how difficult
it is to identify real and fake voice (on avg. only 37 percent can distinguish
between real and fake voice of a professor). With a focus on German language
and an online teaching environment we discuss the societal implications as well
as demonstrate how to use machine learning techniques to possibly detect such
fakes.
- Abstract(参考訳): 機械学習技術の助けを借りて音声合成はここ数年で急速に進歩し、[1]、最近は最初の高名な詐欺事件が報告されている([2])。
オンライン教育における会議ツールの利用が増加している今、私たちはいかに簡単か(つまり)を疑問視している。
必要なデータ、ハードウェア、スキルセット) 説得力のある音声の偽造を作ることです。
参加者のトレーニングデータの量(例)を分析します。
学生)は実際に他の参加者の声(例えば)を偽装する必要がある。
教授)。
我々は、ボイスディープフェイクを作成する際の現在の技術状況の分析と、音声をコピーするのにどれだけの労力が必要かの詳細な技術的ガイダンスと証拠を提供する。
100人以上の参加者を対象にしたユーザスタディでは、実声と偽声の識別がいかに難しいかが示されています。
教授の本当の声と偽の声を区別できるのはたったの37%)
ドイツ語とオンラインの教育環境に焦点をあて、社会的な意味を議論するとともに、機械学習技術を用いてそのような偽物を検出する方法を実証する。
関連論文リスト
- VoiceWukong: Benchmarking Deepfake Voice Detection [6.8595368524357285]
本稿では,ディープフェイク音声検出器の性能を評価するためのベンチマークであるVoiceWukongを紹介する。
データセットを構築するために、まず19の商用ツールと15のオープンソースツールによって生成されたディープフェイク音声を収集しました。
次に、6種類の操作をカバーする38のデータ変種を作成し、ディープフェイク音声検出のための評価データセットを構築した。
論文 参考訳(メタデータ) (2024-09-10T09:07:12Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - Deepfake audio as a data augmentation technique for training automatic
speech to text transcription models [55.2480439325792]
本稿では,ディープフェイク音声に基づくデータ拡張手法を提案する。
インド人(英語)が生成したデータセットが選択され、単一のアクセントの存在が保証された。
論文 参考訳(メタデータ) (2023-09-22T11:33:03Z) - Can deepfakes be created by novice users? [15.014868583616504]
先進的なコンピュータスキルを持つ参加者がDeepfakesを作れるかどうかを理解するために,ユーザスタディを実施している。
23.1%の参加者が音声とビデオで完全なDeepfakesを作成した。
私たちは、Deepfake検出ソフトウェアツールと人間の検査者に基づく分析を使用して、成功したDeepfake出力を偽、疑わしい、あるいは本物に分類します。
論文 参考訳(メタデータ) (2023-04-28T00:32:24Z) - System Fingerprint Recognition for Deepfake Audio: An Initial Dataset
and Investigation [51.06875680387692]
システム指紋認識(SFR)のための最初のディープフェイク音声データセットを提案する。
最新の最先端のディープラーニング技術を利用する7つの中国ベンダーの音声合成システムからデータセットを収集した。
論文 参考訳(メタデータ) (2022-08-21T05:15:40Z) - Play it by Ear: Learning Skills amidst Occlusion through Audio-Visual
Imitation Learning [62.83590925557013]
我々は視覚と音声の入力から、部分的に観察された操作タスクのセットを学習する。
提案システムは,遠隔操作による実演とオンラインファインタニングを併用することで,これらの課題を学習する。
模擬課題の集合において、我々のシステムは音声を使うことの恩恵を受けており、オンライン介入を用いることで、オフライン模倣学習の成功率を20%向上できることがわかった。
論文 参考訳(メタデータ) (2022-05-30T04:52:58Z) - Self-Supervised Speech Representation Learning: A Review [105.1545308184483]
自己教師付き表現学習法は、幅広いタスクやドメインに利益をもたらす単一の普遍的モデルを約束する。
音声表現学習は、生成的、コントラスト的、予測的という3つの主要なカテゴリで同様の進歩を経験している。
本稿では,自己指導型音声表現学習のアプローチと,他の研究領域との関係について述べる。
論文 参考訳(メタデータ) (2022-05-21T16:52:57Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Evaluation of an Audio-Video Multimodal Deepfake Dataset using Unimodal
and Multimodal Detectors [18.862258543488355]
ディープフェイクはセキュリティとプライバシーの問題を引き起こす可能性がある。
ディープラーニング技術を使って人間の声をクローンする新しい領域も登場しつつある。
優れたディープフェイク検出器を開発するには、複数のモードのディープフェイクを検出する検出器が必要である。
論文 参考訳(メタデータ) (2021-09-07T11:00:20Z) - Human Perception of Audio Deepfakes [6.40753664615445]
音声のディープフェイクを検出するための人間と機械の能力を比較する。
我々の実験では、472人のユニークなユーザーが14912ラウンドで最先端のAIディープフェイク検出アルゴリズムと競合した。
人間とディープフェイク検出アルゴリズムは類似の強みと弱みを共有しており、どちらも特定の種類の攻撃を検出するのに苦労している。
論文 参考訳(メタデータ) (2021-07-20T09:19:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。