論文の概要: Vulnerabilities of Audio-Based Biometric Authentication Systems Against Deepfake Speech Synthesis
- arxiv url: http://arxiv.org/abs/2601.02914v1
- Date: Tue, 06 Jan 2026 10:55:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.900936
- Title: Vulnerabilities of Audio-Based Biometric Authentication Systems Against Deepfake Speech Synthesis
- Title(参考訳): ディープフェイク音声合成に対するバイオメトリック認証システムの脆弱性
- Authors: Mengze Hong, Di Jiang, Zeying Xie, Weiwei Zhao, Guan Wang, Chen Jason Zhang,
- Abstract要約: 非常に小さなサンプルで訓練された現代の音声クローニングモデルは、商用話者認証システムを簡単に回避することができる。
アンチスプーフィング検出器は、様々な音声合成方法の一般化に苦慮している。
- 参考スコア(独自算出の注目度): 21.895422296912454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As audio deepfakes transition from research artifacts to widely available commercial tools, robust biometric authentication faces pressing security threats in high-stakes industries. This paper presents a systematic empirical evaluation of state-of-the-art speaker authentication systems based on a large-scale speech synthesis dataset, revealing two major security vulnerabilities: 1) modern voice cloning models trained on very small samples can easily bypass commercial speaker verification systems; and 2) anti-spoofing detectors struggle to generalize across different methods of audio synthesis, leading to a significant gap between in-domain performance and real-world robustness. These findings call for a reconsideration of security measures and stress the need for architectural innovations, adaptive defenses, and the transition towards multi-factor authentication.
- Abstract(参考訳): オーディオのディープフェイクが研究成果物から広く利用可能な商用ツールへと移行するにつれ、ロバストなバイオメトリック認証は、ハイテク産業におけるセキュリティの脅威に直面している。
本稿では,大規模音声合成データセットに基づく最先端話者認証システムの系統的評価を行い,2つの重大なセキュリティ脆弱性を明らかにした。
1)非常に小さなサンプルで訓練された現代の音声クローニングモデルは、商業的話者認証システムを容易に回避することができる。
2) アンチスプーフィング検出器は様々な音声合成方法の一般化に苦慮し, ドメイン内性能と実世界のロバスト性の間に大きなギャップが生じた。
これらの知見は、セキュリティ対策の再検討と、アーキテクチャの革新、適応的な防御、多要素認証への移行の必要性を強調している。
関連論文リスト
- SAFE-QAQ: End-to-End Slow-Thinking Audio-Text Fraud Detection via Reinforcement Learning [52.29460857893198]
既存の不正検出方法は、書き起こされたテキストに依存しており、ASRのエラーや、声調や環境条件のような重要な音響的手がかりが欠けている。
音声に基づくスロー思考詐欺検出のためのエンドツーエンド包括的フレームワークSAFE-QAQを提案する。
本フレームワークは,ライブコール中に動的リスクアセスメントフレームワークを導入し,不正の早期検出と防止を可能にする。
論文 参考訳(メタデータ) (2026-01-04T06:09:07Z) - A Survey of Threats Against Voice Authentication and Anti-Spoofing Systems [5.2851376150891864]
本調査は, 音声認証システム(VAS)と防汚対策(CM)を対象とする, 近代的な脅威景観を概観するものである。
我々は、音声認証の発展を時系列的に追跡し、技術的進歩と連動して、脆弱性がどのように進化したかを調べる。
新たなリスクとオープンな課題を強調することで,この調査は,よりセキュアでレジリエントな音声認証システムの開発を支援することを目的としている。
論文 参考訳(メタデータ) (2025-08-22T23:57:04Z) - Deep Learning Models for Robust Facial Liveness Detection [56.08694048252482]
本研究では,現代のアンチスプーフィング手法の欠陥に対処する新しい深層学習モデルを用いて,ロバストな解を提案する。
テクスチャ解析と実際の人間の特性に関連する反射特性を革新的に統合することにより、我々のモデルは、顕著な精度でレプリカと真の存在を区別する。
論文 参考訳(メタデータ) (2025-08-12T17:19:20Z) - Where are we in audio deepfake detection? A systematic analysis over generative and detection models [59.09338266364506]
SONARはAI-Audio Detection FrameworkとBenchmarkの合成である。
最先端のAI合成聴覚コンテンツを識別するための総合的な評価を提供する。
従来のモデルベース検出システムと基礎モデルベース検出システムの両方で、AIオーディオ検出を均一にベンチマークする最初のフレームワークである。
論文 参考訳(メタデータ) (2024-10-06T01:03:42Z) - Certification of Speaker Recognition Models to Additive Perturbations [4.332441337407564]
対人攻撃に対する 話者認識システムの堅牢性は 重要な課題です
我々はまず,画像領域向けに開発された話者認識に頑健性認証技術を適用した。
論文 参考訳(メタデータ) (2024-04-29T15:23:26Z) - NPVForensics: Jointing Non-critical Phonemes and Visemes for Deepfake
Detection [50.33525966541906]
既存のマルチモーダル検出手法は、Deepfakeビデオを公開するために、音声と視覚の不整合をキャプチャする。
NPVForensics と呼ばれる非臨界音素とビセムの相関関係を抽出する新しいディープフェイク検出法を提案する。
我々のモデルは、微調整で下流のDeepfakeデータセットに容易に適応できる。
論文 参考訳(メタデータ) (2023-06-12T06:06:05Z) - Deepfake audio detection by speaker verification [79.99653758293277]
本研究では,話者の生体特性のみを活用する新しい検出手法を提案する。
提案手法は,既成話者検証ツールに基づいて実装することができる。
そこで我々は,3つの一般的なテストセット上で,優れた性能,高い一般化能力,高ロバスト性を有する音声障害に対する高ロバスト性を検証した。
論文 参考訳(メタデータ) (2022-09-28T13:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。