論文の概要: Spectral Masking and Interpolation Attack (SMIA): A Black-box Adversarial Attack against Voice Authentication and Anti-Spoofing Systems
- arxiv url: http://arxiv.org/abs/2509.07677v1
- Date: Tue, 09 Sep 2025 12:43:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.312021
- Title: Spectral Masking and Interpolation Attack (SMIA): A Black-box Adversarial Attack against Voice Authentication and Anti-Spoofing Systems
- Title(参考訳): スペクトルマスキングと補間攻撃(SMIA) : 音声認証とアンチスプーフィングシステムに対するブラックボックス対応攻撃
- Authors: Kamel Kamel, Hridoy Sankar Dutta, Keshav Sood, Sunil Aryal,
- Abstract要約: SMIA(Spectral Masking and Interpolation Attack)は、AI生成音声の可聴周波数領域を戦略的に操作する新しい手法である。
SMIAは82%以上のVAS/CMシステムに対する攻撃成功率(ASR)、少なくとも97.5%はスタンドアロン話者認証システムに対する攻撃成功率(ASR)、100%は対策として達成された。
この作業は、動的でコンテキスト対応のフレームワークを使用する次世代防衛へのパラダイムシフトの急激な必要性を強調している。
- 参考スコア(独自算出の注目度): 5.2851376150891864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Voice Authentication Systems (VAS) use unique vocal characteristics for verification. They are increasingly integrated into high-security sectors such as banking and healthcare. Despite their improvements using deep learning, they face severe vulnerabilities from sophisticated threats like deepfakes and adversarial attacks. The emergence of realistic voice cloning complicates detection, as systems struggle to distinguish authentic from synthetic audio. While anti-spoofing countermeasures (CMs) exist to mitigate these risks, many rely on static detection models that can be bypassed by novel adversarial methods, leaving a critical security gap. To demonstrate this vulnerability, we propose the Spectral Masking and Interpolation Attack (SMIA), a novel method that strategically manipulates inaudible frequency regions of AI-generated audio. By altering the voice in imperceptible zones to the human ear, SMIA creates adversarial samples that sound authentic while deceiving CMs. We conducted a comprehensive evaluation of our attack against state-of-the-art (SOTA) models across multiple tasks, under simulated real-world conditions. SMIA achieved a strong attack success rate (ASR) of at least 82% against combined VAS/CM systems, at least 97.5% against standalone speaker verification systems, and 100% against countermeasures. These findings conclusively demonstrate that current security postures are insufficient against adaptive adversarial attacks. This work highlights the urgent need for a paradigm shift toward next-generation defenses that employ dynamic, context-aware frameworks capable of evolving with the threat landscape.
- Abstract(参考訳): VAS(Voice Authentication Systems)は、独自の声質特性を用いて認証を行う。
彼らは銀行や医療といった高セキュリティ分野にますます統合されている。
ディープラーニングを使って改善されているにもかかわらず、ディープフェイクや敵攻撃のような高度な脅威による深刻な脆弱性に直面している。
現実的な音声クローンの出現は、システムは合成音声と真正性を見分けるのに苦労するため、検出を複雑にする。
これらのリスクを軽減するために、防汚対策(CM)が存在するが、多くの人は、新しい敵法によってバイパスできる静的検出モデルに依存しており、重大なセキュリティギャップを残している。
この脆弱性を実証するために,AI生成音声の可聴域を戦略的に操作する新しい手法であるSMIA(Spectral Masking and Interpolation Attack)を提案する。
SMIAは、知覚不能な領域の音声を人間の耳に変化させることで、CMを欺きながら真に聞こえる敵のサンプルを作成する。
我々は,実世界のシミュレーション条件下で,複数のタスクにわたるSOTAモデルに対する攻撃の包括的評価を行った。
SMIAは82%以上のVAS/CMシステムに対する攻撃成功率(ASR)、少なくとも97.5%はスタンドアロン話者認証システムに対する攻撃成功率(ASR)、100%は対策として達成された。
これらの結果は、現在のセキュリティ姿勢が適応的敵攻撃に対して不十分であることを確定的に証明している。
この研究は、脅威の状況で進化できる動的でコンテキスト対応のフレームワークを使用する次世代防衛へのパラダイムシフトの急激な必要性を強調している。
関連論文リスト
- Mitigating Backdoor Triggered and Targeted Data Poisoning Attacks in Voice Authentication Systems [4.856070170902535]
本稿では,BTAとTDPAの両方を効果的に扱う統一防衛フレームワークを提案する。
筆者らのフレームワークは,ほぼリアルタイムにピッチアップとバックドアアタックを隠蔽する周波数集中検出機構を統合している。
我々の枠組みはTDPAの認識において、攻撃成功率を最大5~15%まで低下させ、リコールレートを最大9~5%まで維持する。
論文 参考訳(メタデータ) (2025-05-06T11:52:12Z) - Mind the Gap: Detecting Black-box Adversarial Attacks in the Making through Query Update Analysis [3.795071937009966]
アドリアックは機械学習(ML)モデルの整合性を損なう可能性がある。
本稿では,逆ノイズインスタンスが生成されているかどうかを検出するフレームワークを提案する。
適応攻撃を含む8つの最先端攻撃に対するアプローチを評価する。
論文 参考訳(メタデータ) (2025-03-04T20:25:12Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Practical Attacks on Voice Spoofing Countermeasures [3.388509725285237]
悪意あるアクターが、音声認証を最も厳格な形でバイパスするために、音声サンプルを効率的に作ることができることを示す。
本研究の結果は,攻撃者の脅威を回避し,現代の音声認証システムのセキュリティに疑問を投げかけるものである。
論文 参考訳(メタデータ) (2021-07-30T14:07:49Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Defense against adversarial attacks on spoofing countermeasures of ASV [95.87555881176529]
本稿では,ASVスプーフィング対策モデルの脆弱性を軽減するために,パッシブ・ディフェンス法,空間平滑化法,プロアクティブ・ディフェンス・トレーニング法を提案する。
実験結果から, これらの2つの防御手法は, 対向する対向的例に対して, 対向的対策モデルを偽装するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2020-03-06T08:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。