論文の概要: LMD: A Learnable Mask Network to Detect Adversarial Examples for Speaker
Verification
- arxiv url: http://arxiv.org/abs/2211.00825v1
- Date: Wed, 2 Nov 2022 02:03:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 14:48:29.354495
- Title: LMD: A Learnable Mask Network to Detect Adversarial Examples for Speaker
Verification
- Title(参考訳): LMD:話者検証の逆例を検出する学習可能なマスクネットワーク
- Authors: Xing Chen, Jie Wang, Xiao-Lei Zhang, Wei-Qiang Zhang, and Kunde Yang
- Abstract要約: 本稿では,攻撃者に依存しない,解釈可能な手法を提案する。
スコア変動検出器の中核成分は、ニューラルネットワークによりマスクされた分光図を生成することである。
提案手法は,5つの最先端のベースラインより優れている。
- 参考スコア(独自算出の注目度): 17.968334617708244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although the security of automatic speaker verification (ASV) is seriously
threatened by recently emerged adversarial attacks, there have been some
countermeasures to alleviate the threat. However, many defense approaches not
only require the prior knowledge of the attackers but also possess weak
interpretability. To address this issue, in this paper, we propose an
attacker-independent and interpretable method, named learnable mask detector
(LMD), to separate adversarial examples from the genuine ones. It utilizes
score variation as an indicator to detect adversarial examples, where the score
variation is the absolute discrepancy between the ASV scores of an original
audio recording and its transformed audio synthesized from its masked complex
spectrogram. A core component of the score variation detector is to generate
the masked spectrogram by a neural network. The neural network needs only
genuine examples for training, which makes it an attacker-independent approach.
Its interpretability lies that the neural network is trained to minimize the
score variation of the targeted ASV, and maximize the number of the masked
spectrogram bins of the genuine training examples. Its foundation is based on
the observation that, masking out the vast majority of the spectrogram bins
with little speaker information will inevitably introduce a large score
variation to the adversarial example, and a small score variation to the
genuine example. Experimental results with 12 attackers and two representative
ASV systems show that our proposed method outperforms five state-of-the-art
baselines. The extensive experimental results can also be a benchmark for the
detection-based ASV defenses.
- Abstract(参考訳): 自動話者検証(ASV)のセキュリティは、最近出現した敵攻撃によって深刻な脅威を受けているが、脅威を緩和するための対策がいくつかある。
しかし、多くの防御的アプローチは、攻撃者の事前の知識を必要とするだけでなく、弱い解釈性も持っている。
そこで本稿では,学習可能なマスク検出器 (LMD) と呼ばれる攻撃者非依存かつ解釈可能な手法を提案する。
スコア変動は、元のオーディオ録音のASVスコアと、そのマスク付き複素スペクトログラムから合成された変換オーディオとの絶対的な差である、逆例を検出する指標としてスコア変動を利用する。
スコア変動検出装置のコアコンポーネントは、ニューラルネットワークによってマスクされたスペクトログラムを生成することである。
ニューラルネットワークはトレーニングの真の例のみを必要とするため、アタッカー非依存のアプローチになる。
その解釈性は、ニューラルネットワークがターゲットのasvのスコア変動を最小限に抑えるように訓練され、本物のトレーニング例のマスキングされたスペクトログラムビンの数を最大化する。
その基礎は、話者情報が少ない分光器箱の大部分をマスキングすることで、必然的に敵対的な例に大きなスコアの変動をもたらし、実際の例に小さなスコアの変動をもたらすという観察に基づいている。
12人の攻撃者と2人の代表的ASVシステムによる実験結果から,提案手法は最先端の5つのベースラインより優れていることがわかった。
大規模な実験結果は、検出に基づくASV防御のベンチマークでもある。
関連論文リスト
- Malacopula: adversarial automatic speaker verification attacks using a neural-based generalised Hammerstein model [23.942915856543387]
本稿では,ニューラルベースで一般化されたハマースタインモデルであるマラコプラについて述べる。
非線形プロセスを用いて音声の発話を修正することで、マラコプラはスプーフィング攻撃の有効性を高める。
論文 参考訳(メタデータ) (2024-08-17T21:58:11Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Exploring the Adversarial Robustness of CLIP for AI-generated Image Detection [9.516391314161154]
比較言語-画像事前学習(CLIP)に基づく手法に着目し,AI生成画像検出器の対角的ロバスト性について検討した。
CLIPベースの検出器は、CNNベースの検出器と同様に、ホワイトボックス攻撃に対して脆弱である。
この分析は、より効果的な戦略を開発するのに役立つ法医学的検出器の特性に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2024-07-28T18:20:08Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - WaveTransform: Crafting Adversarial Examples via Input Decomposition [69.01794414018603]
本稿では,低周波サブバンドと高周波サブバンドに対応する逆雑音を生成するWaveTransformを紹介する。
実験により,提案攻撃は防衛アルゴリズムに対して有効であり,CNN間での転送も可能であることが示された。
論文 参考訳(メタデータ) (2020-10-29T17:16:59Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z) - Detecting Adversarial Examples for Speech Recognition via Uncertainty
Quantification [21.582072216282725]
機械学習システム、特に自動音声認識(ASR)システムは、敵の攻撃に対して脆弱である。
本稿では,ハイブリッドASRシステムに着目し,攻撃時の不確実性を示す能力に関する4つの音響モデルを比較した。
我々は、受信演算子曲線スコア0.99以上の領域の逆例を検出することができる。
論文 参考訳(メタデータ) (2020-05-24T19:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。