論文の概要: Voting for the right answer: Adversarial defense for speaker
verification
- arxiv url: http://arxiv.org/abs/2106.07868v1
- Date: Tue, 15 Jun 2021 04:05:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-17 03:41:56.197139
- Title: Voting for the right answer: Adversarial defense for speaker
verification
- Title(参考訳): 正しい答えに投票する: 話者検証のための敵対的防御
- Authors: Haibin Wu, Yang Zhang, Zhiyong Wu, Dong Wang, Hung-yi Lee
- Abstract要約: ASVは敵の攻撃のレーダー下にあり、これは人間の知覚による本来の攻撃と似ている。
盲点領域におけるASVのリスクの高い決定を防止するため、「正しい回答を求める」という考え方を提案する。
実験結果から,本手法は両攻撃者に対するロバスト性を向上することが示された。
- 参考スコア(独自算出の注目度): 79.10523688806852
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic speaker verification (ASV) is a well developed technology for
biometric identification, and has been ubiquitous implemented in
security-critic applications, such as banking and access control. However,
previous works have shown that ASV is under the radar of adversarial attacks,
which are very similar to their original counterparts from human's perception,
yet will manipulate the ASV render wrong prediction. Due to the very late
emergence of adversarial attacks for ASV, effective countermeasures against
them are limited. Given that the security of ASV is of high priority, in this
work, we propose the idea of "voting for the right answer" to prevent risky
decisions of ASV in blind spot areas, by employing random sampling and voting.
Experimental results show that our proposed method improves the robustness
against both the limited-knowledge attackers by pulling the adversarial samples
out of the blind spots, and the perfect-knowledge attackers by introducing
randomness and increasing the attackers' budgets. The code for reproducing main
results is available at https://github.com/thuhcsi/adsv_voting.
- Abstract(参考訳): 自動話者検証(ASV)は生体認証技術としてよく開発されており、銀行やアクセス制御といったセキュリティクリティカルなアプリケーションに広く実装されている。
しかし、以前の研究では、ASVは敵の攻撃のレーダー下にあることが示されており、これは人間の認識による本来の攻撃と非常によく似ているが、ASVを間違った予測で操作する。
ASVに対する敵対的攻撃の出現が極めて遅いため、それらに対する効果的な対策は限られている。
本研究では, ASV の安全性が優先されていることを踏まえ, ランダムサンプリングと投票を用いて, 盲点領域における ASV のリスク決定を防ぐための「正しい回答を求める」という考え方を提案する。
実験結果から,本手法は,無作為性を導入し,攻撃者の予算を増大させることで,相手検体を盲点から取り出すことにより,双方に対する堅牢性を向上することが示された。
主な結果を再現するコードはhttps://github.com/thuhcsi/adsv_votingで入手できる。
関連論文リスト
- Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。