論文の概要: On Deepfake Voice Detection -- It's All in the Presentation
- arxiv url: http://arxiv.org/abs/2509.26471v1
- Date: Tue, 30 Sep 2025 16:19:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.617615
- Title: On Deepfake Voice Detection -- It's All in the Presentation
- Title(参考訳): ディープフェイク音声検出について-すべてプレゼンテーション中
- Authors: Héctor Delgado, Giorgio Ramondetti, Emanuele Dalmasso, Gennady Karvitsky, Daniele Colibro, Haydar Talib,
- Abstract要約: 本稿では,現在のディープフェイクデータセットと研究手法が,現実のアプリケーションに一般化できなかったシステムにどのように寄与したかを明らかにする。
本研究では,データ作成・研究手法の新しい枠組みを提案し,現実のシナリオにおいてより効果的なスプーフィング対策の開発を可能にする。
- 参考スコア(独自算出の注目度): 0.09578151054169785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the technologies empowering malicious audio deepfakes have dramatically evolved in recent years due to generative AI advances, the same cannot be said of global research into spoofing (deepfake) countermeasures. This paper highlights how current deepfake datasets and research methodologies led to systems that failed to generalize to real world application. The main reason is due to the difference between raw deepfake audio, and deepfake audio that has been presented through a communication channel, e.g. by phone. We propose a new framework for data creation and research methodology, allowing for the development of spoofing countermeasures that would be more effective in real-world scenarios. By following the guidelines outlined here we improved deepfake detection accuracy by 39% in more robust and realistic lab setups, and by 57% on a real-world benchmark. We also demonstrate how improvement in datasets would have a bigger impact on deepfake detection accuracy than the choice of larger SOTA models would over smaller models; that is, it would be more important for the scientific community to make greater investment on comprehensive data collection programs than to simply train larger models with higher computational demands.
- Abstract(参考訳): 悪意あるオーディオディープフェイクに権限を与える技術は、生成的AIの進歩によって近年飛躍的に進化してきたが、スプーフィング(ディープフェイク)対策に関する世界的な研究でも同じことは言えない。
本稿では,現在のディープフェイクデータセットと研究手法が,現実のアプリケーションに一般化できなかったシステムにどのように寄与したかを明らかにする。
主な理由は、生のディープフェイクオーディオと、コミュニケーションチャネルを通じて提示されたディープフェイクオーディオ、例えば電話によるディープフェイクオーディオの違いによる。
本研究では,データ作成・研究手法の新しい枠組みを提案し,現実のシナリオにおいてより効果的なスプーフィング対策の開発を可能にする。
ここで概説したガイドラインに従うことで、より堅牢で現実的なラボセットアップでディープフェイク検出精度を39%改善し、実際のベンチマークで57%向上しました。
また、データセットの改善がより小さなモデルよりも大きなSOTAモデルを選択することよりもディープフェイク検出精度にどのように影響するかを示す。
関連論文リスト
- Comparative Analysis of Deepfake Detection Models: New Approaches and Perspectives [0.0]
この研究は、GenConViTモデルに焦点を当て、ディープフェイクを識別するための異なるアプローチを調査し、比較する。
研究を文脈化するために、ディープフェイクの社会的および法的影響と、それらの創造と検出の技術的基礎に対処する。
その結果、GenConViTは微調整後、精度(93.82%)と一般化能力において優れた性能を示した。
論文 参考訳(メタデータ) (2025-04-03T02:10:27Z) - Measuring the Robustness of Audio Deepfake Detectors [59.09338266364506]
この研究は、16の一般的な汚職に対する10のオーディオディープフェイク検出モデルの頑健さを体系的に評価する。
従来のディープラーニングモデルと最先端の基礎モデルの両方を用いて、4つのユニークな観察を行う。
論文 参考訳(メタデータ) (2025-03-21T23:21:17Z) - Deepfake Media Generation and Detection in the Generative AI Era: A Survey and Outlook [101.30779332427217]
本研究は,近年の現場開発を含むディープフェイク発生・検出技術について調査する。
偽コンテンツの変更や生成に使用する手順に従って,様々な種類のディープフェイクを識別する。
我々は,分布外コンテンツに基づくディープフェイク検出のための新しいマルチモーダル・ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-11-29T08:29:25Z) - Targeted Augmented Data for Audio Deepfake Detection [11.671275975119089]
そこで本研究では,モデルの決定境界をターゲットとした音声疑似フェイク生成手法を提案する。
敵の攻撃に触発されて、元の実際のデータを摂動させ、不明瞭な予測確率で擬似フェイクを合成する。
論文 参考訳(メタデータ) (2024-07-10T12:31:53Z) - DF40: Toward Next-Generation Deepfake Detection [62.073997142001424]
既存の研究は、ある特定のデータセットで検出器をトレーニングし、他の一般的なディープフェイクデータセットでテストすることで、トップノーチ検出アルゴリズムとモデルを識別する。
しかし、これらの「勝者」は現実の世界に潜む無数の現実的で多様なディープフェイクに取り組むために真に応用できるのだろうか?
我々は,40の異なるディープフェイク技術からなるDF40という,高度に多様なディープフェイク検出データセットを構築した。
論文 参考訳(メタデータ) (2024-06-19T12:35:02Z) - Fooling State-of-the-Art Deepfake Detection with High-Quality Deepfakes [2.0883760606514934]
我々は、複数の研究データセットで証明されたディープフェイク検出器が、よく作られた偽物と現実世界のシナリオで未だに苦戦していることを示す。
我々は,90個の高品質のディープフェイクを生成するために,高度な顔ブレンディング技術とともに,顔交換のための新しいオートエンコーダを提案する。
論文 参考訳(メタデータ) (2023-05-09T09:08:49Z) - Leveraging Deep Learning Approaches for Deepfake Detection: A Review [0.0]
ディープフェイク(Deepfakes)は、AIによって生成されたメディアであり、実際のメディアから切り離すことが難しい。
本稿では,コスト効率のよいモデルを実現するために,様々な手法を検討することを目的とする。
論文 参考訳(メタデータ) (2023-04-04T16:04:42Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。