論文の概要: AUDDT: Audio Unified Deepfake Detection Benchmark Toolkit
- arxiv url: http://arxiv.org/abs/2509.21597v1
- Date: Thu, 25 Sep 2025 21:09:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.021788
- Title: AUDDT: Audio Unified Deepfake Detection Benchmark Toolkit
- Title(参考訳): AUDDT:オーディオ統合ディープフェイク検出ベンチマークツールキット
- Authors: Yi Zhu, Heitor R. Guimarães, Arthur Pimentel, Tiago Falk,
- Abstract要約: 既存の28のオーディオディープフェイクデータセットを体系的にレビューし、AUDDTと呼ばれるオープンソースのベンチマークツールキットを提示する。
このツールキットの目的は、これらの28のデータセットにわたる事前訓練された検出器の評価を自動化することであり、ディープフェイク検出器の利点と欠点を直接フィードバックすることである。
- 参考スコア(独自算出の注目度): 7.279026980203529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the prevalence of artificial intelligence (AI)-generated content, such as audio deepfakes, a large body of recent work has focused on developing deepfake detection techniques. However, most models are evaluated on a narrow set of datasets, leaving their generalization to real-world conditions uncertain. In this paper, we systematically review 28 existing audio deepfake datasets and present an open-source benchmarking toolkit called AUDDT (https://github.com/MuSAELab/AUDDT). The goal of this toolkit is to automate the evaluation of pretrained detectors across these 28 datasets, giving users direct feedback on the advantages and shortcomings of their deepfake detectors. We start by showcasing the usage of the developed toolkit, the composition of our benchmark, and the breakdown of different deepfake subgroups. Next, using a widely adopted pretrained deepfake detector, we present in- and out-of-domain detection results, revealing notable differences across conditions and audio manipulation types. Lastly, we also analyze the limitations of these existing datasets and their gap relative to practical deployment scenarios.
- Abstract(参考訳): オーディオディープフェイクなどの人工知能(AI)生成コンテンツの普及に伴い、近年の多くの研究がディープフェイク検出技術の開発に重点を置いている。
しかし、ほとんどのモデルは狭いデータセットで評価され、それらの一般化は現実の状況に委ねられる。
本稿では、既存の28のオーディオディープフェイクデータセットを体系的にレビューし、AUDDT(https://github.com/MuSAELab/AUDDT)と呼ばれるオープンソースのベンチマークツールキットを提示する。
このツールキットの目的は、これらの28のデータセットにわたる事前訓練された検出器の評価を自動化することであり、ディープフェイク検出器の利点と欠点を直接フィードバックすることである。
まず、開発したツールキットの使用方法、ベンチマークの構成方法、および異なるディープフェイクサブグループの分解について示す。
次に、広く採用されているディープフェイク検出器を用いて、領域内および領域外検出結果を示し、条件や音声操作タイプに顕著な差異が明らかになった。
最後に、既存のデータセットの制限と、実際のデプロイメントシナリオに対するギャップを分析します。
関連論文リスト
- Contextual Cross-Modal Attention for Audio-Visual Deepfake Detection and Localization [3.9440964696313485]
デジタル時代には、ディープフェイクや合成メディアの出現は、社会的・政治的整合性に対する重大な脅威となる。
オーディオ視覚のようなマルチモーダル操作に基づくディープフェイクは、より現実的であり、より大きな脅威をもたらす。
本稿では,音声・視覚的ディープフェイク検出にコンテキスト情報を活用する,リカレントニューラルネットワーク(RNN)に基づく新しいマルチモーダルアテンションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-02T18:45:01Z) - Bayesian Detector Combination for Object Detection with Crowdsourced Annotations [49.43709660948812]
制約のない画像できめ細かなオブジェクト検出アノテーションを取得するのは、時間がかかり、コストがかかり、ノイズに悩まされる。
ノイズの多いクラウドソースアノテーションでオブジェクト検出をより効果的に訓練するための新しいベイズ検出結合(BDC)フレームワークを提案する。
BDCはモデルに依存しず、アノテータのスキルレベルに関する事前の知識を必要とせず、既存のオブジェクト検出モデルとシームレスに統合される。
論文 参考訳(メタデータ) (2024-07-10T18:00:54Z) - DF40: Toward Next-Generation Deepfake Detection [62.073997142001424]
既存の研究は、ある特定のデータセットで検出器をトレーニングし、他の一般的なディープフェイクデータセットでテストすることで、トップノーチ検出アルゴリズムとモデルを識別する。
しかし、これらの「勝者」は現実の世界に潜む無数の現実的で多様なディープフェイクに取り組むために真に応用できるのだろうか?
我々は,40の異なるディープフェイク技術からなるDF40という,高度に多様なディープフェイク検出データセットを構築した。
論文 参考訳(メタデータ) (2024-06-19T12:35:02Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - DeepfakeBench: A Comprehensive Benchmark of Deepfake Detection [55.70982767084996]
ディープフェイク検出の分野で見落とされがちな課題は、標準化され、統一され、包括的なベンチマークがないことである。
DeepfakeBenchと呼ばれる,3つの重要なコントリビューションを提供するディープフェイク検出のための,最初の包括的なベンチマークを提示する。
DeepfakeBenchには15の最先端検出方法、9CLデータセット、一連のDeepfake検出評価プロトコルと分析ツール、包括的な評価ツールが含まれている。
論文 参考訳(メタデータ) (2023-07-04T01:34:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。