論文の概要: LMD: A Learnable Mask Network to Detect Adversarial Examples for Speaker
Verification
- arxiv url: http://arxiv.org/abs/2211.00825v2
- Date: Wed, 14 Jun 2023 13:56:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-17 03:14:43.916939
- Title: LMD: A Learnable Mask Network to Detect Adversarial Examples for Speaker
Verification
- Title(参考訳): LMD:話者検証の逆例を検出する学習可能なマスクネットワーク
- Authors: Xing Chen, Jie Wang, Xiao-Lei Zhang, Wei-Qiang Zhang, and Kunde Yang
- Abstract要約: 本稿では,攻撃者に依存しない,解釈可能な手法を提案する。
スコア変動検出器の中核成分は、ニューラルネットワークによりマスクされた分光図を生成することである。
提案手法は,5つの最先端のベースラインより優れている。
- 参考スコア(独自算出の注目度): 17.968334617708244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although the security of automatic speaker verification (ASV) is seriously
threatened by recently emerged adversarial attacks, there have been some
countermeasures to alleviate the threat. However, many defense approaches not
only require the prior knowledge of the attackers but also possess weak
interpretability. To address this issue, in this paper, we propose an
attacker-independent and interpretable method, named learnable mask detector
(LMD), to separate adversarial examples from the genuine ones. It utilizes
score variation as an indicator to detect adversarial examples, where the score
variation is the absolute discrepancy between the ASV scores of an original
audio recording and its transformed audio synthesized from its masked complex
spectrogram. A core component of the score variation detector is to generate
the masked spectrogram by a neural network. The neural network needs only
genuine examples for training, which makes it an attacker-independent approach.
Its interpretability lies that the neural network is trained to minimize the
score variation of the targeted ASV, and maximize the number of the masked
spectrogram bins of the genuine training examples. Its foundation is based on
the observation that, masking out the vast majority of the spectrogram bins
with little speaker information will inevitably introduce a large score
variation to the adversarial example, and a small score variation to the
genuine example. Experimental results with 12 attackers and two representative
ASV systems show that our proposed method outperforms five state-of-the-art
baselines. The extensive experimental results can also be a benchmark for the
detection-based ASV defenses.
- Abstract(参考訳): 自動話者検証(ASV)のセキュリティは、最近出現した敵攻撃によって深刻な脅威を受けているが、脅威を緩和するための対策がいくつかある。
しかし、多くの防御的アプローチは、攻撃者の事前の知識を必要とするだけでなく、弱い解釈性も持っている。
そこで本稿では,学習可能なマスク検出器 (LMD) と呼ばれる攻撃者非依存かつ解釈可能な手法を提案する。
スコア変動は、元のオーディオ録音のASVスコアと、そのマスク付き複素スペクトログラムから合成された変換オーディオとの絶対的な差である、逆例を検出する指標としてスコア変動を利用する。
スコア変動検出装置のコアコンポーネントは、ニューラルネットワークによってマスクされたスペクトログラムを生成することである。
ニューラルネットワークはトレーニングの真の例のみを必要とするため、アタッカー非依存のアプローチになる。
その解釈性は、ニューラルネットワークがターゲットのasvのスコア変動を最小限に抑えるように訓練され、本物のトレーニング例のマスキングされたスペクトログラムビンの数を最大化する。
その基礎は、話者情報が少ない分光器箱の大部分をマスキングすることで、必然的に敵対的な例に大きなスコアの変動をもたらし、実際の例に小さなスコアの変動をもたらすという観察に基づいている。
12人の攻撃者と2人の代表的ASVシステムによる実験結果から,提案手法は最先端の5つのベースラインより優れていることがわかった。
大規模な実験結果は、検出に基づくASV防御のベンチマークでもある。
関連論文リスト
- Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Robustifying automatic speech recognition by extracting slowly varying
features [20.96846497286073]
敵攻撃に対する防御機構を提案する。
このような方法で事前処理されたデータに基づいてトレーニングされたハイブリッドASRモデルを使用します。
本モデルでは, ベースラインモデルと類似したクリーンデータの性能を示すとともに, 4倍以上の堅牢性を示した。
論文 参考訳(メタデータ) (2021-12-14T13:50:23Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Adversarial Defense for Automatic Speaker Verification by
Self-Supervised Learning [101.42920161993455]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - WaveTransform: Crafting Adversarial Examples via Input Decomposition [69.01794414018603]
本稿では,低周波サブバンドと高周波サブバンドに対応する逆雑音を生成するWaveTransformを紹介する。
実験により,提案攻撃は防衛アルゴリズムに対して有効であり,CNN間での転送も可能であることが示された。
論文 参考訳(メタデータ) (2020-10-29T17:16:59Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z) - Detecting Adversarial Examples for Speech Recognition via Uncertainty
Quantification [21.582072216282725]
機械学習システム、特に自動音声認識(ASR)システムは、敵の攻撃に対して脆弱である。
本稿では,ハイブリッドASRシステムに着目し,攻撃時の不確実性を示す能力に関する4つの音響モデルを比較した。
我々は、受信演算子曲線スコア0.99以上の領域の逆例を検出することができる。
論文 参考訳(メタデータ) (2020-05-24T19:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。