論文の概要: On the Detection of Adaptive Adversarial Attacks in Speaker Verification
Systems
- arxiv url: http://arxiv.org/abs/2202.05725v1
- Date: Fri, 11 Feb 2022 16:02:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 16:34:58.403492
- Title: On the Detection of Adaptive Adversarial Attacks in Speaker Verification
Systems
- Title(参考訳): 話者検証システムにおける適応的逆攻撃の検出について
- Authors: Zesheng Chen
- Abstract要約: FAKEBOBのような敵攻撃は、話者認証システムに対して効果的に機能する。
本研究の目的は,敵対的攻撃によって汚染された音声からオリジナル音声を識別できる検出器を設計することである。
提案する検出器は実装が容易で,入力オーディオを高速に処理でき,FAKEBOB攻撃による音声の破損の有無を判定する上で有効であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Speaker verification systems have been widely used in smart phones and
Internet of things devices to identify a legitimate user. In recent work, it
has been shown that adversarial attacks, such as FAKEBOB, can work effectively
against speaker verification systems. The goal of this paper is to design a
detector that can distinguish an original audio from an audio contaminated by
adversarial attacks. Specifically, our designed detector, called MEH-FEST,
calculates the minimum energy in high frequencies from the short-time Fourier
transform of an audio and uses it as a detection metric. Through both analysis
and experiments, we show that our proposed detector is easy to implement, fast
to process an input audio, and effective in determining whether an audio is
corrupted by FAKEBOB attacks. The experimental results indicate that the
detector is extremely effective: with near zero false positive and false
negative rates for detecting FAKEBOB attacks in Gaussian mixture model (GMM)
and i-vector speaker verification systems. Moreover, adaptive adversarial
attacks against our proposed detector and their countermeasures are discussed
and studied, showing the game between attackers and defenders.
- Abstract(参考訳): スマートフォンやiotデバイスでは、正当なユーザを特定するために話者認証システムが広く使われている。
近年の研究では、FAKEBOBのような敵対的攻撃が話者認証システムに対して効果的に作用できることが示されている。
本研究の目的は,敵対的攻撃によって汚染された音声からオリジナル音声を識別できる検出器を設計することである。
具体的には、MEH-FESTと呼ばれる我々の設計した検出器は、オーディオの短時間フーリエ変換から高周波の最小エネルギーを計算し、検出基準として利用する。
分析および実験により,提案する検出器は実装が容易であり,入力音声を高速に処理でき,フェイクボブ攻撃によってオーディオが破損しているかどうかの判定に有効であることを示した。
ガウス混合モデル (GMM) と i-ベクター話者検証システムにおけるFAKEBOB 攻撃の検出において, ほぼゼロの偽陽性, 偽陰性で検出できることが実験的に示唆された。
さらに,提案する検知器に対する適応的敵攻撃とその対策について検討し,攻撃者と守備者の対戦を示す。
関連論文リスト
- TAD: Transfer Learning-based Multi-Adversarial Detection of Evasion
Attacks against Network Intrusion Detection Systems [0.7829352305480285]
我々は、侵入検知のための既存の最先端モデルを実装している。
次に、選択した回避攻撃のセットでこれらのモデルを攻撃します。
これらの敵攻撃を検知するために、我々は複数の移動学習に基づく敵検知器を設計、実装する。
論文 参考訳(メタデータ) (2022-10-27T18:02:58Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Adversarial Detector with Robust Classifier [14.586106862913553]
本稿では, 頑健な分類器と, 素な分類器から構成される新しい対向検出器を提案し, 対向例を高い精度で検出する。
実験で提案した検出器は,ロバストな分類器を使わずに,最先端の検出器よりも優れた性能を示すことを示した。
論文 参考訳(メタデータ) (2022-02-05T07:21:05Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Audio Attacks and Defenses against AED Systems - A Practical Study [2.365611283869544]
我々は,ディープラーニングに基づく音声イベント検出システム(AED)を,敵の例による回避攻撃に対して評価する。
本研究では,背景雑音と白色雑音という2つの異なる種類のノイズを用いて,敵対者が検出を避けるために使用する音声対向例を生成する。
音声入力に適用した場合,これらの対策が有効であることを示す。
論文 参考訳(メタデータ) (2021-06-14T13:42:49Z) - Adversarial Attacks and Mitigation for Anomaly Detectors of
Cyber-Physical Systems [6.417955560857806]
本研究では,CPSの異常検出器とルールチェッカーを同時に回避する対向攻撃を提案する。
既存の勾配に基づくアプローチにインスパイアされた我々の敵攻撃は、センサーとアクチュエーターの値にノイズを発生させ、遺伝的アルゴリズムを使って後者を最適化する。
実世界の2つの重要なインフラテストベッドに対するアプローチを実装し、検出器の分類精度を平均50%以上下げることに成功した。
論文 参考訳(メタデータ) (2021-05-22T12:19:03Z) - Attack on practical speaker verification system using universal
adversarial perturbations [20.38185341318529]
本研究は,提案する対人摂動を,相手が話しているときに別個の音源として演奏することにより,現実的な話者検証システムにより,相手を対象話者と誤認することを示す。
2段階のアルゴリズムが提案され、テキストに依存しない普遍的対向摂動を最適化し、認証テキスト認識にはほとんど影響を与えない。
論文 参考訳(メタデータ) (2021-05-19T09:43:34Z) - FoolHD: Fooling speaker identification by Highly imperceptible
adversarial Disturbances [63.80959552818541]
話者識別モデルに対する知覚不能な摂動を発生させるホワイトボックス・ステガノグラフィーによる敵攻撃を提案する。
我々のアプローチであるFoolHDは、DCTドメインで動作するGated Convolutional Autoencoderを使用し、多目的損失関数で訓練されている。
我々は,VoxCelebを用いて訓練した250話者識別xベクトルネットワークを用いてFoolHDを検証する。
論文 参考訳(メタデータ) (2020-11-17T07:38:26Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Integrated Replay Spoofing-aware Text-independent Speaker Verification [47.41124427552161]
本稿では,話者認証と提示攻撃検出の統合システムを構築するための2つのアプローチを提案する。
第1のアプローチは、話者識別、提示攻撃検出、マルチタスク学習を用いた統合システムとを同時に訓練する。
本稿では、話者検証と提示攻撃検出に分離されたディープニューラルネットワーク(DNN)を用いたバックエンドモジュール方式を提案する。
論文 参考訳(メタデータ) (2020-06-10T01:24:55Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。