論文の概要: Diffuse or Confuse: A Diffusion Deepfake Speech Dataset
- arxiv url: http://arxiv.org/abs/2410.06796v1
- Date: Wed, 9 Oct 2024 11:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 03:40:32.174272
- Title: Diffuse or Confuse: A Diffusion Deepfake Speech Dataset
- Title(参考訳): 拡散・混乱:拡散深度音声データセット
- Authors: Anton Firc, Kamil Malinka, Petr Hanáček,
- Abstract要約: 本稿では,現実的な合成音声を生成する新しい手法である拡散モデルについて検討する。
利用可能なツールと事前訓練されたモデルを使って拡散データセットを作成します。
本研究は,拡散生成型ディープフェイクと非拡散型ディープフェイクの品質と,現在のディープフェイク検出システムに対する潜在的な脅威を評価する。
- 参考スコア(独自算出の注目度): 1.3654846342364308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advancements in artificial intelligence and machine learning have significantly improved synthetic speech generation. This paper explores diffusion models, a novel method for creating realistic synthetic speech. We create a diffusion dataset using available tools and pretrained models. Additionally, this study assesses the quality of diffusion-generated deepfakes versus non-diffusion ones and their potential threat to current deepfake detection systems. Findings indicate that the detection of diffusion-based deepfakes is generally comparable to non-diffusion deepfakes, with some variability based on detector architecture. Re-vocoding with diffusion vocoders shows minimal impact, and the overall speech quality is comparable to non-diffusion methods.
- Abstract(参考訳): 人工知能と機械学習の進歩は、合成音声生成を大幅に改善した。
本稿では,現実的な合成音声を生成する新しい手法である拡散モデルについて検討する。
利用可能なツールと事前訓練されたモデルを使って拡散データセットを作成します。
さらに,拡散生成型ディープフェイクと非拡散型ディープフェイクの品質と,現在のディープフェイク検出システムに対する潜在的な脅威について検討した。
発見は拡散に基づくディープフェイクの検出が、一般的には非拡散ディープフェイクと同等であり、検出器アーキテクチャに基づくばらつきがあることを示している。
拡散ボコーダによる復号化は最小限の影響を示し、全体的な音声品質は非拡散法に匹敵する。
関連論文リスト
- DiffusionFake: Enhancing Generalization in Deepfake Detection via Guided Stable Diffusion [94.46904504076124]
ディープフェイク技術は、顔交換を極めて現実的にし、偽造された顔コンテンツの使用に対する懸念を高めている。
既存の方法は、顔操作の多様な性質のため、目に見えない領域に一般化するのに苦労することが多い。
顔偽造者の生成過程を逆転させて検出モデルの一般化を促進する新しいフレームワークであるDiffusionFakeを紹介する。
論文 参考訳(メタデータ) (2024-10-06T06:22:43Z) - Contextual Cross-Modal Attention for Audio-Visual Deepfake Detection and Localization [3.9440964696313485]
デジタル時代には、ディープフェイクや合成メディアの出現は、社会的・政治的整合性に対する重大な脅威となる。
オーディオ視覚のようなマルチモーダル操作に基づくディープフェイクは、より現実的であり、より大きな脅威をもたらす。
本稿では,音声・視覚的ディープフェイク検出にコンテキスト情報を活用する,リカレントニューラルネットワーク(RNN)に基づく新しいマルチモーダルアテンションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-02T18:45:01Z) - Diffusion-based Adversarial Purification for Intrusion Detection [0.6990493129893112]
不正な摂動はMLモデルを誤解させ、攻撃者が検出を回避したり、誤った警告をトリガーしたりすることを可能にする。
敵の浄化は、特に有望な結果を示す拡散モデルによって、説得力のある解決策として現れてきた。
本稿では,ネットワーク侵入検出における逆例の浄化における拡散モデルの有効性を示す。
論文 参考訳(メタデータ) (2024-06-25T14:48:28Z) - DistilDIRE: A Small, Fast, Cheap and Lightweight Diffusion Synthesized Deepfake Detection [2.8934833311559816]
拡散生成画像は、現在の検出技術に固有の課題をもたらす。
本研究では,拡散モデルに埋め込まれた知識を蒸留して,高速深度検出モデルを構築することを提案する。
実験の結果,既存のDIREフレームワークよりも3.2倍高速な推論速度が得られた。
論文 参考訳(メタデータ) (2024-06-02T20:22:38Z) - Neural Network Parameter Diffusion [50.85251415173792]
拡散モデルは画像生成やビデオ生成において顕著な成功を収めた。
本研究は拡散モデルにも適用可能であることを示す。
高性能なニューラルネットワークパラメータを生成する。
論文 参考訳(メタデータ) (2024-02-20T16:59:03Z) - What to Remember: Self-Adaptive Continual Learning for Audio Deepfake
Detection [53.063161380423715]
既存の検出モデルは、既知のディープフェイク音声を識別することに成功したが、新しい攻撃タイプに遭遇する際には苦労している。
本稿では,Radian Weight Modification (RWM) と呼ばれる連続的な学習手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T09:52:17Z) - InfoDiffusion: Representation Learning Using Information Maximizing
Diffusion Models [35.566528358691336]
InfoDiffusionは低次元潜伏変数を持つ拡散モデルを拡張するアルゴリズムである。
情報拡散は、観測された変数と隠れた変数の相互情報に規則化された学習目標に依存する。
インフォディフュージョンは、最先端の生成的およびコントラスト的手法と競合する非絡み合いおよび人間解釈可能な潜在表現を学習する。
論文 参考訳(メタデータ) (2023-06-14T21:48:38Z) - A Cheaper and Better Diffusion Language Model with Soft-Masked Noise [62.719656543880596]
Masked-Diffuse LMは言語モデリングのための新しい拡散モデルであり、言語の言語的特徴に触発されている。
具体的には,テキストデータのノイズを改善するために,戦略的ソフトマスキングによってテキストに劣化を加える言語情報処理を設計する。
我々は,我々のMasked-Diffuse LMが,高効率の最先端拡散モデルよりも優れた生成品質を達成できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:58:42Z) - Diffusion Models as Masked Autoencoders [52.442717717898056]
拡散モデルに対する近年の関心を踏まえて、生成的に事前学習された視覚表現を再考する。
拡散モデルによる直接事前学習では強い表現は得られないが、マスク付き入力上での拡散モデルと公式拡散モデルをマスク付きオートエンコーダ(DiffMAE)として条件付ける。
設計選択の長所と短所について包括的な研究を行い、拡散モデルとマスク付きオートエンコーダ間の接続を構築する。
論文 参考訳(メタデータ) (2023-04-06T17:59:56Z) - DiffusionSeg: Adapting Diffusion Towards Unsupervised Object Discovery [20.787180028571694]
DiffusionSegは、2段階戦略を含む合成探索フレームワークである。
我々は,豊富な画像を合成し,第1段階でマスクを得るための新しいトレーニングフリーアテンションカットを提案する。
第2のエクスプロイト段階では、構造的ギャップを埋めるために、インバージョン技術を用いて、与えられた画像を拡散特徴にマッピングする。
論文 参考訳(メタデータ) (2023-03-17T07:47:55Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。