論文の概要: WaveGuard: Understanding and Mitigating Audio Adversarial Examples
- arxiv url: http://arxiv.org/abs/2103.03344v1
- Date: Thu, 4 Mar 2021 21:44:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 14:35:37.310209
- Title: WaveGuard: Understanding and Mitigating Audio Adversarial Examples
- Title(参考訳): WaveGuard: オーディオアドバイザリの例を理解して修正する
- Authors: Shehzeen Hussain, Paarth Neekhara, Shlomo Dubnov, Julian McAuley,
Farinaz Koushanfar
- Abstract要約: 本稿では,ASRシステムに対する敵入力を検出するフレームワークであるWaveGuardを紹介する。
本フレームワークは,音声変換機能を組み込んで原音声と変換音声のasr転写を解析し,逆入力を検出する。
- 参考スコア(独自算出の注目度): 12.010555227327743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been a recent surge in adversarial attacks on deep learning based
automatic speech recognition (ASR) systems. These attacks pose new challenges
to deep learning security and have raised significant concerns in deploying ASR
systems in safety-critical applications. In this work, we introduce WaveGuard:
a framework for detecting adversarial inputs that are crafted to attack ASR
systems. Our framework incorporates audio transformation functions and analyses
the ASR transcriptions of the original and transformed audio to detect
adversarial inputs. We demonstrate that our defense framework is able to
reliably detect adversarial examples constructed by four recent audio
adversarial attacks, with a variety of audio transformation functions. With
careful regard for best practices in defense evaluations, we analyze our
proposed defense and its strength to withstand adaptive and robust attacks in
the audio domain. We empirically demonstrate that audio transformations that
recover audio from perceptually informed representations can lead to a strong
defense that is robust against an adaptive adversary even in a complete
white-box setting. Furthermore, WaveGuard can be used out-of-the box and
integrated directly with any ASR model to efficiently detect audio adversarial
examples, without the need for model retraining.
- Abstract(参考訳): 近年,ディープラーニングに基づく自動音声認識(ASR)システムに対する敵対的攻撃が急増している。
これらの攻撃はディープラーニングのセキュリティに新たな課題をもたらし、安全クリティカルなアプリケーションにASRシステムをデプロイすることに大きな懸念を引き起こしました。
本稿では,asrシステムを攻撃するために開発された逆入力を検出するフレームワークwaveguardを紹介する。
本フレームワークは,音声変換機能を組み込んで原音声と変換音声のasr転写を解析し,逆入力を検出する。
我々は,近年の4つの音声対向攻撃によって構築された対向的事例を,様々な音声変換関数を用いて確実に検出できることを実証した。
防衛評価におけるベストプラクティスを慎重に検討し,音声領域における適応的かつ強固な攻撃に耐える防衛力とその強みを分析した。
我々は,音声を知覚的情報から復元する音声変換が,完全なホワイトボックス設定であっても,適応的相手に対して堅牢な強い防御につながることを実証的に実証した。
さらに、WaveGuardはすぐに使用でき、任意のASRモデルと直接統合され、モデルの再トレーニングを必要とせずに、オーディオの逆転例を効率的に検出できます。
関連論文リスト
- AudioFool: Fast, Universal and synchronization-free Cross-Domain Attack
on Speech Recognition [0.9913418444556487]
オーバー・ザ・エア(OTA)モデルと互換性のあるロバスト攻撃に必要な特性について検討する。
任意の特性を持つ攻撃を発生させる手法を設計する。
本手法を標準キーワード分類タスクで評価し,OTAで解析する。
論文 参考訳(メタデータ) (2023-09-20T16:59:22Z) - The defender's perspective on automatic speaker verification: An
overview [87.83259209657292]
自動話者検証(ASV)の信頼性は、スプーフィング攻撃の出現によって損なわれている。
本研究の目的は、これらの攻撃に対して使用される防御方法について、徹底的かつ体系的に概説することである。
論文 参考訳(メタデータ) (2023-05-22T08:01:59Z) - Push-Pull: Characterizing the Adversarial Robustness for Audio-Visual
Active Speaker Detection [88.74863771919445]
我々は、音声のみ、視覚のみ、および音声-視覚的敵対攻撃下でのAVASDモデルの脆弱性を明らかにする。
また,攻撃者が現実的な相手を見つけるのを困難にするため,新たな音声・視覚的相互作用損失(AVIL)を提案する。
論文 参考訳(メタデータ) (2022-10-03T08:10:12Z) - Towards Understanding and Mitigating Audio Adversarial Examples for
Speaker Recognition [13.163192823774624]
話者認識システム(SRS)は、最近、敵の攻撃に対して脆弱であることが示され、重大なセキュリティ上の懸念が提起されている。
話者認識に対する先進的な7つの攻撃を用いて、22の多様な変換を行い、徹底的に評価する。
提案手法は, 完全ホワイトボックス環境において, 対人訓練と組み合わせた特徴レベル変換が, 単独の対人訓練に比べ, より効果的であることを示す。
論文 参考訳(メタデータ) (2022-06-07T15:38:27Z) - Blackbox Untargeted Adversarial Testing of Automatic Speech Recognition
Systems [1.599072005190786]
音声認識システムは、家電の音声ナビゲーションや音声制御への応用に広く利用されている。
ディープニューラルネットワーク(DNN)は、敵の摂動に感受性があることが示されている。
本稿では,ASRSの正しさをテストするため,ブラックボックスの自動生成手法を提案する。
論文 参考訳(メタデータ) (2021-12-03T10:21:47Z) - Audio Attacks and Defenses against AED Systems - A Practical Study [2.365611283869544]
我々は,ディープラーニングに基づく音声イベント検出システム(AED)を,敵の例による回避攻撃に対して評価する。
本研究では,背景雑音と白色雑音という2つの異なる種類のノイズを用いて,敵対者が検出を避けるために使用する音声対向例を生成する。
音声入力に適用した場合,これらの対策が有効であることを示す。
論文 参考訳(メタデータ) (2021-06-14T13:42:49Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Cortical Features for Defense Against Adversarial Audio Attacks [55.61885805423492]
本稿では,聴覚野の計算モデルを用いて,音声に対する敵対的攻撃に対する防御手法を提案する。
また,大脳皮質の特徴は,普遍的な敵の例に対する防御に有効であることを示す。
論文 参考訳(メタデータ) (2021-01-30T21:21:46Z) - WaveTransform: Crafting Adversarial Examples via Input Decomposition [69.01794414018603]
本稿では,低周波サブバンドと高周波サブバンドに対応する逆雑音を生成するWaveTransformを紹介する。
実験により,提案攻撃は防衛アルゴリズムに対して有効であり,CNN間での転送も可能であることが示された。
論文 参考訳(メタデータ) (2020-10-29T17:16:59Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Detecting Audio Attacks on ASR Systems with Dropout Uncertainty [40.9172128924305]
我々の防衛は、最適化された摂動と周波数マスキングによって生成された攻撃を検出することができることを示す。
我々は、MozillaのCommonVoiceデータセット、UrbanSoundデータセット、およびLibriSpeechデータセットの抜粋に対する防御をテストする。
論文 参考訳(メタデータ) (2020-06-02T19:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。