論文の概要: Speech DF Arena: A Leaderboard for Speech DeepFake Detection Models
- arxiv url: http://arxiv.org/abs/2509.02859v1
- Date: Tue, 02 Sep 2025 22:11:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.353514
- Title: Speech DF Arena: A Leaderboard for Speech DeepFake Detection Models
- Title(参考訳): 音声DFアリーナ:音声ディープフェイク検出モデルのリーダーボード
- Authors: Sandipana Dowerah, Atharva Kulkarni, Ajinkya Kulkarni, Hoan My Tran, Joonas Kalda, Artem Fedorchenko, Benoit Fauve, Damien Lolive, Tanel Alumäe, Matthew Magimai Doss,
- Abstract要約: Speech DeepFake (DF) Arenaは、オーディオディープフェイク検出のための最初の包括的なベンチマークである。
DF Arenaは、現在14のさまざまなデータセットとアタックシナリオにわたって、検出システムを均一に評価するためのツールキットを提供する。
また、システムを比較してランク付けするリーダーボードも用意されており、研究者や開発者が信頼性と堅牢性を高めるのに役立つ。
- 参考スコア(独自算出の注目度): 11.803603620762486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Parallel to the development of advanced deepfake audio generation, audio deepfake detection has also seen significant progress. However, a standardized and comprehensive benchmark is still missing. To address this, we introduce Speech DeepFake (DF) Arena, the first comprehensive benchmark for audio deepfake detection. Speech DF Arena provides a toolkit to uniformly evaluate detection systems, currently across 14 diverse datasets and attack scenarios, standardized evaluation metrics and protocols for reproducibility and transparency. It also includes a leaderboard to compare and rank the systems to help researchers and developers enhance their reliability and robustness. We include 14 evaluation sets, 12 state-of-the-art open-source and 3 proprietary detection systems. Our study presents many systems exhibiting high EER in out-of-domain scenarios, highlighting the need for extensive cross-domain evaluation. The leaderboard is hosted on Huggingface1 and a toolkit for reproducing results across the listed datasets is available on GitHub.
- Abstract(参考訳): 高度なディープフェイク音声生成の開発と並行して、オーディオディープフェイク検出も大きな進歩を遂げている。
しかし、標準化された包括的なベンチマークがまだ欠けている。
これを解決するために,音声ディープフェイク検出のための最初の総合的なベンチマークであるSpeech DeepFake (DF) Arenaを紹介する。
Speech DF Arenaは、現在14の多様なデータセットとアタックシナリオ、標準化された評価メトリクス、再現性と透明性のためのプロトコルを含む、検出システムを均一に評価するためのツールキットを提供する。
また、システムを比較してランク付けするリーダーボードも用意されており、研究者や開発者が信頼性と堅牢性を高めるのに役立つ。
14の評価セット、12の最先端オープンソース、および3つの独自検出システムを含む。
本研究は、ドメイン外シナリオにおいて高いEERを示す多くのシステムを示し、広範囲にわたるドメイン間評価の必要性を強調した。
リーダボードはHuggingface1上にホストされており、リストされたデータセット間で結果を再生するためのツールキットがGitHubで公開されている。
関連論文リスト
- XMAD-Bench: Cross-Domain Multilingual Audio Deepfake Benchmark [28.171858958370947]
XMAD-Bench (XMAD-Bench) は、668.8時間のリアルタイムおよびディープフェイク音声を含む大規模クロスドメイン多言語オーディオディープフェイクベンチマークである。
我々のベンチマークでは、堅牢なオーディオディープフェイク検出器の開発の必要性を強調している。
論文 参考訳(メタデータ) (2025-05-31T08:28:36Z) - Where are we in audio deepfake detection? A systematic analysis over generative and detection models [59.09338266364506]
SONARはAI-Audio Detection FrameworkとBenchmarkの合成である。
最先端のAI合成聴覚コンテンツを識別するための総合的な評価を提供する。
従来のモデルベース検出システムと基礎モデルベース検出システムの両方で、AIオーディオ検出を均一にベンチマークする最初のフレームワークである。
論文 参考訳(メタデータ) (2024-10-06T01:03:42Z) - Contextual Cross-Modal Attention for Audio-Visual Deepfake Detection and Localization [3.9440964696313485]
デジタル時代には、ディープフェイクや合成メディアの出現は、社会的・政治的整合性に対する重大な脅威となる。
オーディオ視覚のようなマルチモーダル操作に基づくディープフェイクは、より現実的であり、より大きな脅威をもたらす。
本稿では,音声・視覚的ディープフェイク検出にコンテキスト情報を活用する,リカレントニューラルネットワーク(RNN)に基づく新しいマルチモーダルアテンションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-02T18:45:01Z) - DeepfakeBench: A Comprehensive Benchmark of Deepfake Detection [55.70982767084996]
ディープフェイク検出の分野で見落とされがちな課題は、標準化され、統一され、包括的なベンチマークがないことである。
DeepfakeBenchと呼ばれる,3つの重要なコントリビューションを提供するディープフェイク検出のための,最初の包括的なベンチマークを提示する。
DeepfakeBenchには15の最先端検出方法、9CLデータセット、一連のDeepfake検出評価プロトコルと分析ツール、包括的な評価ツールが含まれている。
論文 参考訳(メタデータ) (2023-07-04T01:34:41Z) - ESB: A Benchmark For Multi-Domain End-to-End Speech Recognition [100.30565531246165]
音声認識システムはデータセット固有のチューニングを必要とする。
このチューニング要件は、他のデータセットやドメインへの一般化に失敗したシステムにつながる可能性がある。
本稿では,1つの自動音声認識システムの性能を評価するために,エンド・ツー・エンド音声ベンチマーク(ESB)を提案する。
論文 参考訳(メタデータ) (2022-10-24T15:58:48Z) - Audio Deepfake Attribution: An Initial Dataset and Investigation [41.62487394875349]
我々は、Audio Deepfake Attribution (ADA)と呼ばれるオーディオ生成ツールの属性に対する最初のディープフェイクオーディオデータセットを設計する。
オープンセットオーディオディープフェイク属性(OSADA)のためのクラス・マルチセンター学習(CRML)手法を提案する。
実験の結果,CRML法は実世界のシナリオにおけるオープンセットリスクに効果的に対処できることが示された。
論文 参考訳(メタデータ) (2022-08-21T05:15:40Z) - Fully Automated End-to-End Fake Audio Detection [57.78459588263812]
本稿では,完全自動エンドツーエンド音声検出手法を提案する。
まず、wav2vec事前学習モデルを用いて、音声の高レベル表現を得る。
ネットワーク構造には, Light-DARTS という異種アーキテクチャサーチ (DARTS) の修正版を用いる。
論文 参考訳(メタデータ) (2022-08-20T06:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。