論文の概要: Practical Attacks on Voice Spoofing Countermeasures
- arxiv url: http://arxiv.org/abs/2107.14642v1
- Date: Fri, 30 Jul 2021 14:07:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-02 12:49:40.572086
- Title: Practical Attacks on Voice Spoofing Countermeasures
- Title(参考訳): 音声スポーフィング対策の実践的攻撃
- Authors: Andre Kassis and Urs Hengartner
- Abstract要約: 悪意あるアクターが、音声認証を最も厳格な形でバイパスするために、音声サンプルを効率的に作ることができることを示す。
本研究の結果は,攻撃者の脅威を回避し,現代の音声認証システムのセキュリティに疑問を投げかけるものである。
- 参考スコア(独自算出の注目度): 3.388509725285237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Voice authentication has become an integral part in security-critical
operations, such as bank transactions and call center conversations. The
vulnerability of automatic speaker verification systems (ASVs) to spoofing
attacks instigated the development of countermeasures (CMs), whose task is to
tell apart bonafide and spoofed speech. Together, ASVs and CMs form today's
voice authentication platforms, advertised as an impregnable access control
mechanism. We develop the first practical attack on CMs, and show how a
malicious actor may efficiently craft audio samples to bypass voice
authentication in its strictest form. Previous works have primarily focused on
non-proactive attacks or adversarial strategies against ASVs that do not
produce speech in the victim's voice. The repercussions of our attacks are far
more severe, as the samples we generate sound like the victim, eliminating any
chance of plausible deniability. Moreover, the few existing adversarial attacks
against CMs mistakenly optimize spoofed speech in the feature space and do not
take into account the existence of ASVs, resulting in inferior synthetic audio
that fails in realistic settings. We eliminate these obstacles through our key
technical contribution: a novel joint loss function that enables mounting
advanced adversarial attacks against combined ASV/CM deployments directly in
the time domain. Our adversarials achieve concerning black-box success rates
against state-of-the-art authentication platforms (up to 93.57\%). Finally, we
perform the first targeted, over-telephony-network attack on CMs, bypassing
several challenges and enabling various potential threats, given the increased
use of voice biometrics in call centers. Our results call into question the
security of modern voice authentication systems in light of the real threat of
attackers bypassing these measures to gain access to users' most valuable
resources.
- Abstract(参考訳): 音声認証は、銀行取引やコールセンターの会話など、セキュリティクリティカルなオペレーションにおいて不可欠な部分となっている。
自動話者認証システム(ASV)の攻撃に対する脆弱性は、ボナフィドとスプーフ音声を区別することを目的とした対策(CM)の開発を促した。
asvとcmsは共に今日の音声認証プラットフォームを形成し、不可避なアクセス制御機構として宣伝されている。
我々はcmsに対する最初の実用的な攻撃を開発し、悪意のある俳優が音声サンプルを効率的に作成して音声認証を最も厳格な形でバイパスする方法を示す。
これまでの研究は主に、被害者の声の中で発言を起こさないASVに対する非攻撃的攻撃や敵対的戦略に焦点を当ててきた。
私たちの攻撃による被害は、被害者のような音を発生させるため、はるかに深刻です。
さらに、cmsに対する既存の敵対的な攻撃は、機能空間におけるスプーフ音声を誤って最適化し、asvの存在を考慮しないため、現実的な設定では失敗する合成音声が劣る。
我々は、これらの障害を、我々の重要な技術的貢献によって排除する: 時間領域内で直接、統合されたASV/CMデプロイメントに対する高度な敵攻撃を実施できる新しい共同損失機能。
我々の敵は最先端認証プラットフォームに対するブラックボックス成功率(最大93.57\%)を達成している。
最後に,cmsにおける音声バイオメトリックスの利用の増加を考慮し,cmsに対する最初のターゲット・オーバーテレフォニーネットワーク攻撃を行い,いくつかの課題を回避し,様々な潜在的な脅威を可能にした。
弊社の結果は、攻撃者がこれらの対策を回避し、ユーザにとってもっとも価値のあるリソースにアクセスできるようにするという真の脅威に鑑み、現代の音声認証システムのセキュリティに疑問を投げかけるものである。
関連論文リスト
- Can DeepFake Speech be Reliably Detected? [17.10792531439146]
この研究は、最先端のオープンソース音声検出装置に対する能動的悪意のある攻撃に関する最初の体系的研究である。
その結果、敵の脅威が進行する中で、より堅牢な検出方法が緊急に必要であることが明らかとなった。
論文 参考訳(メタデータ) (2024-10-09T06:13:48Z) - Generalizing Speaker Verification for Spoof Awareness in the Embedding
Space [30.094557217931563]
ASVシステムは様々な種類の敵を用いて偽造することができる。
本稿では,ディープニューラルネットワークに基づく新しいバックエンド分類手法を提案する。
ASVspoof 2019論理アクセスデータセットで実験が行われる。
論文 参考訳(メタデータ) (2024-01-20T07:30:22Z) - A Practical Survey on Emerging Threats from AI-driven Voice Attacks: How Vulnerable are Commercial Voice Control Systems? [13.115517847161428]
AIによる音声攻撃により、音声制御システムに新たなセキュリティ脆弱性が明らかになった。
本研究は,悪意ある音声攻撃に対する商用音声制御システムのレジリエンスを評価するための試みである。
以上の結果から,商用音声制御システムは既存の脅威に対する耐性を高めることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T21:51:13Z) - VOICE-ZEUS: Impersonating Zoom's E2EE-Protected Static Media and Textual Communications via Simple Voice Manipulations [1.7930036479971307]
Zoomアプリケーションにおける認証手順の現在の実装は、偽造攻撃を非常に受け入れやすい潜在的な脆弱性を導入している。
この脆弱性の存在はE2EEの完全性を損なう可能性がある。
攻撃者が桁のスニペットを記録・並べ替えて、将来のZoomミーティングを損なう新たなセキュリティコードを生成する方法を示す。
論文 参考訳(メタデータ) (2023-10-21T02:45:24Z) - The defender's perspective on automatic speaker verification: An
overview [87.83259209657292]
自動話者検証(ASV)の信頼性は、スプーフィング攻撃の出現によって損なわれている。
本研究の目的は、これらの攻撃に対して使用される防御方法について、徹底的かつ体系的に概説することである。
論文 参考訳(メタデータ) (2023-05-22T08:01:59Z) - Push-Pull: Characterizing the Adversarial Robustness for Audio-Visual
Active Speaker Detection [88.74863771919445]
我々は、音声のみ、視覚のみ、および音声-視覚的敵対攻撃下でのAVASDモデルの脆弱性を明らかにする。
また,攻撃者が現実的な相手を見つけるのを困難にするため,新たな音声・視覚的相互作用損失(AVIL)を提案する。
論文 参考訳(メタデータ) (2022-10-03T08:10:12Z) - Voice Spoofing Countermeasures: Taxonomy, State-of-the-art, experimental
analysis of generalizability, open challenges, and the way forward [2.393661358372807]
本報告では,手作り特徴,ディープラーニング,エンドツーエンド,汎用スプーフィング対策ソリューションを用いたスプーフィング検出に関する文献のレビューを行う。
本稿では,これらの対策の有効性をいくつかのデータセットで報告し,コーパス間で評価する。
論文 参考訳(メタデータ) (2022-10-02T03:53:37Z) - Voting for the right answer: Adversarial defense for speaker
verification [79.10523688806852]
ASVは敵の攻撃のレーダー下にあり、これは人間の知覚による本来の攻撃と似ている。
盲点領域におけるASVのリスクの高い決定を防止するため、「正しい回答を求める」という考え方を提案する。
実験結果から,本手法は両攻撃者に対するロバスト性を向上することが示された。
論文 参考訳(メタデータ) (2021-06-15T04:05:28Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Defense against adversarial attacks on spoofing countermeasures of ASV [95.87555881176529]
本稿では,ASVスプーフィング対策モデルの脆弱性を軽減するために,パッシブ・ディフェンス法,空間平滑化法,プロアクティブ・ディフェンス・トレーニング法を提案する。
実験結果から, これらの2つの防御手法は, 対向する対向的例に対して, 対向的対策モデルを偽装するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2020-03-06T08:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。