論文の概要: Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2106.00273v4
- Date: Wed, 5 Jun 2024 02:36:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 05:08:03.910963
- Title: Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning
- Title(参考訳): 自己指導型学習による話者検証における対向ロバスト性の改善
- Authors: Haibin Wu, Xu Li, Andy T. Liu, Zhiyong Wu, Helen Meng, Hung-yi Lee,
- Abstract要約: この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
- 参考スコア(独自算出の注目度): 95.60856995067083
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous works have shown that automatic speaker verification (ASV) is seriously vulnerable to malicious spoofing attacks, such as replay, synthetic speech, and recently emerged adversarial attacks. Great efforts have been dedicated to defending ASV against replay and synthetic speech; however, only a few approaches have been explored to deal with adversarial attacks. All the existing approaches to tackle adversarial attacks for ASV require the knowledge for adversarial samples generation, but it is impractical for defenders to know the exact attack algorithms that are applied by the in-the-wild attackers. This work is among the first to perform adversarial defense for ASV without knowing the specific attack algorithms. Inspired by self-supervised learning models (SSLMs) that possess the merits of alleviating the superficial noise in the inputs and reconstructing clean samples from the interrupted ones, this work regards adversarial perturbations as one kind of noise and conducts adversarial defense for ASV by SSLMs. Specifically, we propose to perform adversarial defense from two perspectives: 1) adversarial perturbation purification and 2) adversarial perturbation detection. Experimental results show that our detection module effectively shields the ASV by detecting adversarial samples with an accuracy of around 80%. Moreover, since there is no common metric for evaluating the adversarial defense performance for ASV, this work also formalizes evaluation metrics for adversarial defense considering both purification and detection based approaches into account. We sincerely encourage future works to benchmark their approaches based on the proposed evaluation framework.
- Abstract(参考訳): 以前の研究では、自動話者検証(ASV)が、リプレイ、合成音声、最近出現した敵攻撃などの悪意のある密封攻撃に深刻な脆弱性があることが示されている。
ASVをリプレイや合成音声から守る努力が盛んに行われているが、敵の攻撃に対処するためのアプローチはごくわずかである。
ASVの敵攻撃に取り組むための既存のアプローチは、敵のサンプル生成の知識を必要とするが、敵の攻撃者によって適用される正確な攻撃アルゴリズムを知ることは現実的ではない。
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
自己教師型学習モデル(SSLMs)により、入力中の表面ノイズを緩和し、中断されたものからクリーンなサンプルを再構築する利点を持つが、この研究は、敵の摂動を一種のノイズとみなし、SSLMsによるASVに対する敵の防御を行う。
具体的には,2つの視点から敵防衛を行うことを提案する。
1)敵の摂動浄化と
2)対向的摂動検出。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
さらに, ASV の敵防衛性能を評価するための一般的な指標は存在しないため, 浄化法と検出法の両方を考慮することで, 敵防衛評価指標を定式化する。
提案した評価フレームワークに基づいて,今後のアプローチのベンチマークを強く推奨する。
関連論文リスト
- Voting for the right answer: Adversarial defense for speaker
verification [79.10523688806852]
ASVは敵の攻撃のレーダー下にあり、これは人間の知覚による本来の攻撃と似ている。
盲点領域におけるASVのリスクの高い決定を防止するため、「正しい回答を求める」という考え方を提案する。
実験結果から,本手法は両攻撃者に対するロバスト性を向上することが示された。
論文 参考訳(メタデータ) (2021-06-15T04:05:28Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Defense against adversarial attacks on spoofing countermeasures of ASV [95.87555881176529]
本稿では,ASVスプーフィング対策モデルの脆弱性を軽減するために,パッシブ・ディフェンス法,空間平滑化法,プロアクティブ・ディフェンス・トレーニング法を提案する。
実験結果から, これらの2つの防御手法は, 対向する対向的例に対して, 対向的対策モデルを偽装するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2020-03-06T08:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。