論文の概要: Toward Robust Real-World Audio Deepfake Detection: Closing the Explainability Gap
- arxiv url: http://arxiv.org/abs/2410.07436v1
- Date: Wed, 9 Oct 2024 21:08:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 17:06:37.662433
- Title: Toward Robust Real-World Audio Deepfake Detection: Closing the Explainability Gap
- Title(参考訳): 実世界のオーディオディープフェイク検出に向けて:説明可能性のギャップを塞ぐ
- Authors: Georgia Channing, Juil Sock, Ronald Clark, Philip Torr, Christian Schroeder de Witt,
- Abstract要約: 現在のAI駆動のオーディオディープフェイク検出ソリューションは、現実世界の設定における説明可能性や過小評価を欠いている。
本稿では,最先端のトランスフォーマーを用いたオーディオディープフェイク検出のための新しい説明可能性手法と,実世界の一般化のための新しいベンチマークをオープンソース化する。
- 参考スコア(独自算出の注目度): 20.906817328227824
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rapid proliferation of AI-manipulated or generated audio deepfakes poses serious challenges to media integrity and election security. Current AI-driven detection solutions lack explainability and underperform in real-world settings. In this paper, we introduce novel explainability methods for state-of-the-art transformer-based audio deepfake detectors and open-source a novel benchmark for real-world generalizability. By narrowing the explainability gap between transformer-based audio deepfake detectors and traditional methods, our results not only build trust with human experts, but also pave the way for unlocking the potential of citizen intelligence to overcome the scalability issue in audio deepfake detection.
- Abstract(参考訳): AIが操作または生成されたオーディオディープフェイクの急速な普及は、メディアの完全性と選挙のセキュリティに深刻な課題をもたらす。
現在のAI駆動検出ソリューションでは、実世界の環境での説明可能性や性能が不足している。
本稿では,最先端のトランスフォーマーを用いたオーディオディープフェイク検出のための新しい説明可能性手法と,実世界の一般化のための新しいベンチマークをオープンソース化する。
トランスフォーマーをベースとしたオーディオディープフェイク検出装置と従来の方法との説明可能性のギャップを狭めることで、人間の専門家との信頼を深めるだけでなく、市民インテリジェンスの可能性を解き明かし、オーディオディープフェイク検出のスケーラビリティ問題を克服する道を開いた。
関連論文リスト
- SONAR: A Synthetic AI-Audio Detection Framework and Benchmark [59.09338266364506]
SONARはAI-Audio Detection FrameworkとBenchmarkの合成である。
最先端のAI合成聴覚コンテンツを識別するための総合的な評価を提供することを目的としている。
従来のモデルとファンデーションベースのディープフェイク検出システムの両方で、AIオーディオ検出を均一にベンチマークする最初のフレームワークである。
論文 参考訳(メタデータ) (2024-10-06T01:03:42Z) - Leveraging Mixture of Experts for Improved Speech Deepfake Detection [53.69740463004446]
スピーチのディープフェイクは、個人のセキュリティとコンテンツの信頼性に重大な脅威をもたらす。
本研究では,Mixture of Expertsアーキテクチャを用いた音声深度検出性能の向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-24T13:24:03Z) - Targeted Augmented Data for Audio Deepfake Detection [11.671275975119089]
そこで本研究では,モデルの決定境界をターゲットとした音声疑似フェイク生成手法を提案する。
敵の攻撃に触発されて、元の実際のデータを摂動させ、不明瞭な予測確率で擬似フェイクを合成する。
論文 参考訳(メタデータ) (2024-07-10T12:31:53Z) - Evolving from Single-modal to Multi-modal Facial Deepfake Detection: A Survey [40.11614155244292]
AI生成メディアがより現実的になるにつれて、誤情報を拡散したり、身元確認詐欺を犯したりする危険性が高まっている。
この研究は、従来の単一モダリティ手法から、音声・視覚・テキスト・視覚シナリオを扱う高度なマルチモーダルアプローチへの進化を辿る。
私たちの知る限りでは、この種の調査はこれが初めてである。
論文 参考訳(メタデータ) (2024-06-11T05:48:04Z) - Training-Free Deepfake Voice Recognition by Leveraging Large-Scale Pre-Trained Models [52.04189118767758]
一般化は、現在のオーディオディープフェイク検出器の主な問題である。
本稿では,オーディオディープフェイク検出のための大規模事前学習モデルの可能性について検討する。
論文 参考訳(メタデータ) (2024-05-03T15:27:11Z) - NPVForensics: Jointing Non-critical Phonemes and Visemes for Deepfake
Detection [50.33525966541906]
既存のマルチモーダル検出手法は、Deepfakeビデオを公開するために、音声と視覚の不整合をキャプチャする。
NPVForensics と呼ばれる非臨界音素とビセムの相関関係を抽出する新しいディープフェイク検出法を提案する。
我々のモデルは、微調整で下流のDeepfakeデータセットに容易に適応できる。
論文 参考訳(メタデータ) (2023-06-12T06:06:05Z) - Deepfake audio detection by speaker verification [79.99653758293277]
本研究では,話者の生体特性のみを活用する新しい検出手法を提案する。
提案手法は,既成話者検証ツールに基づいて実装することができる。
そこで我々は,3つの一般的なテストセット上で,優れた性能,高い一般化能力,高ロバスト性を有する音声障害に対する高ロバスト性を検証した。
論文 参考訳(メタデータ) (2022-09-28T13:46:29Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Deepfakes Generation and Detection: State-of-the-art, open challenges,
countermeasures, and way forward [2.15242029196761]
不正情報、リベンジポルノ、金融詐欺、詐欺、政府機能を妨害するディープフェイクを発生させることが可能である。
オーディオとビデオの両方のディープフェイクの検出と生成のアプローチをレビューする試みは行われていない。
本稿では、deepfake生成のための既存のツールと機械学習(ml)ベースのアプローチの包括的なレビューと詳細な分析を提供する。
論文 参考訳(メタデータ) (2021-02-25T18:26:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。