論文の概要: Adversarial Attacks on Audio Deepfake Detection: A Benchmark and Comparative Study
- arxiv url: http://arxiv.org/abs/2509.07132v1
- Date: Mon, 08 Sep 2025 18:33:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.08219
- Title: Adversarial Attacks on Audio Deepfake Detection: A Benchmark and Comparative Study
- Title(参考訳): オーディオディープフェイク検出における敵対的攻撃 : ベンチマークと比較研究
- Authors: Kutub Uddin, Muhammad Umar Farooq, Awais Khan, Khalid Mahmood Malik,
- Abstract要約: State-of-the-art (SoTA) Audio Deepfake Detection (ADD) 法が提案されている。
これらの方法の有効性は、生成的シグネチャを隠蔽する反法医学的(AF)攻撃によって著しく損なわれている。
我々は,5つのディープフェイク・ベンチマーク・データセットに対して,生とスペクトログラムに基づくアプローチの2つのカテゴリを用いて,ADD法を広範囲に評価する。
- 参考スコア(独自算出の注目度): 11.300081537458757
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread use of generative AI has shown remarkable success in producing highly realistic deepfakes, posing a serious threat to various voice biometric applications, including speaker verification, voice biometrics, audio conferencing, and criminal investigations. To counteract this, several state-of-the-art (SoTA) audio deepfake detection (ADD) methods have been proposed to identify generative AI signatures to distinguish between real and deepfake audio. However, the effectiveness of these methods is severely undermined by anti-forensic (AF) attacks that conceal generative signatures. These AF attacks span a wide range of techniques, including statistical modifications (e.g., pitch shifting, filtering, noise addition, and quantization) and optimization-based attacks (e.g., FGSM, PGD, C \& W, and DeepFool). In this paper, we investigate the SoTA ADD methods and provide a comparative analysis to highlight their effectiveness in exposing deepfake signatures, as well as their vulnerabilities under adversarial conditions. We conducted an extensive evaluation of ADD methods on five deepfake benchmark datasets using two categories: raw and spectrogram-based approaches. This comparative analysis enables a deeper understanding of the strengths and limitations of SoTA ADD methods against diverse AF attacks. It does not only highlight vulnerabilities of ADD methods, but also informs the design of more robust and generalized detectors for real-world voice biometrics. It will further guide future research in developing adaptive defense strategies that can effectively counter evolving AF techniques.
- Abstract(参考訳): 生成AIの普及は、話者検証、音声バイオメトリックス、オーディオ会議、刑事捜査など、さまざまな音声バイオメトリック応用に深刻な脅威を呈する、非常に現実的なディープフェイクの製作に顕著な成功を収めている。
これに対抗するために、複数の最先端(SoTA)オーディオディープフェイク検出(ADD)手法が提案され、生成的AIシグネチャを識別し、実音声とディープフェイク音声を区別する。
しかし、これらの方法の有効性は、遺伝子的シグネチャを隠蔽する反法医学的(AF)攻撃によって著しく損なわれている。
これらのAF攻撃は、統計的修正(ピッチシフト、フィルタリング、ノイズ追加、量子化など)や最適化ベースの攻撃(例えば、FGSM、PGD、C \&W、DeepFool)を含む幅広い技術にまたがっている。
本稿では,SoTA ADD法について検討し,その効果と,敵条件下での脆弱性を明らかにするための比較分析を行った。
我々は,5つのディープフェイク・ベンチマーク・データセットに対して,生と分光の2つのカテゴリを用いたADD手法の広範囲な評価を行った。
この比較分析により、多様なAF攻撃に対するSoTA ADD法の強度と限界をより深く理解することができる。
ADD法の脆弱性を浮き彫りにするだけでなく、実世界の音声バイオメトリックスのためのより堅牢で一般化された検出器の設計を知らせる。
進化するAF技術に効果的に対抗できる適応型防衛戦略の開発における今後の研究の指針となる。
関連論文リスト
- A Knowledge-guided Adversarial Defense for Resisting Malicious Visual Manipulation [93.28532038721816]
視覚的操作の悪意ある応用は、多くの分野でユーザーのセキュリティと評判に深刻な脅威をもたらしている。
本稿では,悪質な操作モデルを積極的に強制し,意味論的に混乱したサンプルを出力するために,知識誘導型敵防衛(KGAD)を提案する。
論文 参考訳(メタデータ) (2025-04-11T10:18:13Z) - Adversarially Robust Deepfake Detection via Adversarial Feature Similarity Learning [0.0]
ディープフェイク技術は、デジタルコンテンツの信頼性を懸念し、効果的な検出方法の開発を必要としている。
敵は、検出モデルを騙して誤った出力を生成する、小さくて知覚できない摂動でディープフェイクビデオを操作できる。
本稿では,3つの基本的深い特徴学習パラダイムを統合したAFSL(Adversarial Feature similarity Learning)を紹介する。
論文 参考訳(メタデータ) (2024-02-06T11:35:05Z) - What to Remember: Self-Adaptive Continual Learning for Audio Deepfake
Detection [53.063161380423715]
既存の検出モデルは、既知のディープフェイク音声を識別することに成功したが、新しい攻撃タイプに遭遇する際には苦労している。
本稿では,Radian Weight Modification (RWM) と呼ばれる連続的な学習手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T09:52:17Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Leveraging Domain Features for Detecting Adversarial Attacks Against
Deep Speech Recognition in Noise [18.19207291891767]
ディープASRシステムに対する敵攻撃は非常に成功している。
この作業では、フィルタバンクベースの機能を活用して、攻撃特性をより正確に把握し、検出を改善する。
逆フィルタバンクの機能は、クリーンな環境とノイズの多い環境の両方でよく機能する。
論文 参考訳(メタデータ) (2022-11-03T07:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。