論文の概要: Neural Predictor for Black-Box Adversarial Attacks on Speech Recognition
- arxiv url: http://arxiv.org/abs/2203.09849v1
- Date: Fri, 18 Mar 2022 10:37:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-21 14:12:18.413417
- Title: Neural Predictor for Black-Box Adversarial Attacks on Speech Recognition
- Title(参考訳): 音声認識におけるブラックボックス攻撃のニューラルネットワーク予測
- Authors: Marie Biolkov\'a, Bac Nguyen
- Abstract要約: 本稿では, NP-Attackを提案する。NP-Attackは, 小さな対向摂動に対する探索を段階的に進化させる神経予測器に基づく手法である。
摂動方向が与えられた場合、我々の神経予測器は、誤転写を引き起こす最小の摂動を直接推定する。
実験の結果,NP-Attackは他の最先端のブラックボックス攻撃と競合する結果が得られた。
- 参考スコア(独自算出の注目度): 4.5433950623674715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works have revealed the vulnerability of automatic speech recognition
(ASR) models to adversarial examples (AEs), i.e., small perturbations that
cause an error in the transcription of the audio signal. Studying audio
adversarial attacks is therefore the first step towards robust ASR. Despite the
significant progress made in attacking audio examples, the black-box attack
remains challenging because only the hard-label information of transcriptions
is provided. Due to this limited information, existing black-box methods often
require an excessive number of queries to attack a single audio example. In
this paper, we introduce NP-Attack, a neural predictor-based method, which
progressively evolves the search towards a small adversarial perturbation.
Given a perturbation direction, our neural predictor directly estimates the
smallest perturbation that causes a mistranscription. In particular, it enables
NP-Attack to accurately learn promising perturbation directions via
gradient-based optimization. Experimental results show that NP-Attack achieves
competitive results with other state-of-the-art black-box adversarial attacks
while requiring a significantly smaller number of queries. The code of
NP-Attack is available online.
- Abstract(参考訳): 最近の研究では、自動音声認識(asr)モデルの、逆例(aes)、すなわち音声信号の書き起こしの誤りを引き起こす小さな摂動に対する脆弱性が明らかにされている。
したがって、音声の敵対攻撃を研究することは、堅牢なASRへの第一歩である。
音声の例としては大きな進歩があったが、ブラックボックス攻撃は、文字のハードラベル情報のみを提供するため、依然として困難である。
この限られた情報のため、既存のブラックボックスメソッドは、単一のオーディオサンプルを攻撃するために過剰なクエリを必要とすることが多い。
本稿では, NP-Attackを提案する。NP-Attackは, 小さな対向摂動に対する探索を段階的に進化させる神経予測器に基づく手法である。
摂動方向が与えられると、神経予測器は誤記を引き起こす最小摂動を直接推定する。
特に、NP-Attackは勾配に基づく最適化により、予測される摂動方向を正確に学習することができる。
実験結果から,NP-Attackは他の最先端のブラックボックス攻撃と競合する結果が得られた。
NP-Attackのコードはオンラインで入手できる。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Robustifying automatic speech recognition by extracting slowly varying features [16.74051650034954]
敵攻撃に対する防御機構を提案する。
このような方法で事前処理されたデータに基づいてトレーニングされたハイブリッドASRモデルを使用します。
本モデルでは, ベースラインモデルと類似したクリーンデータの性能を示すとともに, 4倍以上の堅牢性を示した。
論文 参考訳(メタデータ) (2021-12-14T13:50:23Z) - Mitigating Black-Box Adversarial Attacks via Output Noise Perturbation [4.7591428725916245]
ブラックボックスの敵攻撃では、敵はディープニューラルネットワーク(DNN)に問い合わせる
本稿では,この攻撃を緩和するために,DNN出力に白色雑音を加える手法について検討する。
論文 参考訳(メタデータ) (2021-09-30T14:24:44Z) - On Procedural Adversarial Noise Attack And Defense [2.5388455804357952]
逆の例では、ニューラルネットワークが入力画像に小さな修正を加えて予測エラーを発生させる。
本稿では,手続き型雑音関数に基づく2つのユニバーサル対向摂動(UAP)生成手法を提案する。
セマンティック表現を変更することなく、我々の手法によって生成された敵の例は攻撃に対して優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-10T02:47:01Z) - Streaming End-to-End ASR based on Blockwise Non-Autoregressive Models [57.20432226304683]
非自己回帰(NAR)モデリングは、音声処理においてますます注目を集めている。
エンドツーエンドのNAR音声認識システムを提案する。
提案手法は低レイテンシ条件下でのオンラインASR認識を改善する。
論文 参考訳(メタデータ) (2021-07-20T11:42:26Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Detecting Adversarial Examples for Speech Recognition via Uncertainty
Quantification [21.582072216282725]
機械学習システム、特に自動音声認識(ASR)システムは、敵の攻撃に対して脆弱である。
本稿では,ハイブリッドASRシステムに着目し,攻撃時の不確実性を示す能力に関する4つの音響モデルを比較した。
我々は、受信演算子曲線スコア0.99以上の領域の逆例を検出することができる。
論文 参考訳(メタデータ) (2020-05-24T19:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。