論文の概要: Sequential Randomized Smoothing for Adversarially Robust Speech
Recognition
- arxiv url: http://arxiv.org/abs/2112.03000v1
- Date: Fri, 5 Nov 2021 21:51:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-12 19:40:11.404019
- Title: Sequential Randomized Smoothing for Adversarially Robust Speech
Recognition
- Title(参考訳): 逆ロバスト音声認識のための逐次ランダム化平滑化
- Authors: Raphael Olivier and Bhiksha Raj
- Abstract要約: 我々の最強の防御力は、難聴のノイズを使用する全ての攻撃に対して堅牢であり、非常に高い歪みでしか破壊できないことを示す。
本稿では, 摂動に頑健なASRモデルを設計するために, 拡張やROVER投票といった音声固有のツールを活用することで, これらの課題を克服する。
- 参考スコア(独自算出の注目度): 26.96883887938093
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Automatic Speech Recognition has been shown to be vulnerable to
adversarial attacks, defenses against these attacks are still lagging.
Existing, naive defenses can be partially broken with an adaptive attack. In
classification tasks, the Randomized Smoothing paradigm has been shown to be
effective at defending models. However, it is difficult to apply this paradigm
to ASR tasks, due to their complexity and the sequential nature of their
outputs. Our paper overcomes some of these challenges by leveraging
speech-specific tools like enhancement and ROVER voting to design an ASR model
that is robust to perturbations. We apply adaptive versions of state-of-the-art
attacks, such as the Imperceptible ASR attack, to our model, and show that our
strongest defense is robust to all attacks that use inaudible noise, and can
only be broken with very high distortion.
- Abstract(参考訳): 自動音声認識は敵の攻撃に弱いことが示されているが、これらの攻撃に対する防御は依然として遅れている。
既存のナイーブ防御は適応攻撃によって部分的に破壊されることがある。
分類タスクにおいて、ランダム化平滑化パラダイムはモデルを守るのに有効であることが示されている。
しかし、このパラダイムをASRタスクに適用することは、その複雑さと出力のシーケンシャルな性質のために困難である。
本稿では, 摂動に頑健なASRモデルを設計するために, 拡張やROVER投票といった音声固有のツールを活用することで, これらの課題を克服する。
我々は,asr攻撃などの最先端攻撃の適応バージョンをモデルに適用し,非可聴ノイズを使用するすべての攻撃に対して,我々の最強の防御が堅牢であり,非常に高い歪みでのみ破壊可能であることを示す。
関連論文リスト
- AudioFool: Fast, Universal and synchronization-free Cross-Domain Attack
on Speech Recognition [0.9913418444556487]
オーバー・ザ・エア(OTA)モデルと互換性のあるロバスト攻撃に必要な特性について検討する。
任意の特性を持つ攻撃を発生させる手法を設計する。
本手法を標準キーワード分類タスクで評価し,OTAで解析する。
論文 参考訳(メタデータ) (2023-09-20T16:59:22Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - Watch What You Pretrain For: Targeted, Transferable Adversarial Examples
on Self-Supervised Speech Recognition models [27.414693266500603]
攻撃対象の敵攻撃は、自動音声認識システムに攻撃テキストを出力させる音声サンプルを生成する。
近年の研究では、大きなASRモデルに対する転送性は非常に難しいことが示されている。
現代のASRアーキテクチャ、特にセルフ・スーパーバイザード・ラーニングに基づくアーキテクチャは、実際にトランスファービリティーに対して脆弱であることを示す。
論文 参考訳(メタデータ) (2022-09-17T15:01:26Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - WaveGuard: Understanding and Mitigating Audio Adversarial Examples [12.010555227327743]
本稿では,ASRシステムに対する敵入力を検出するフレームワークであるWaveGuardを紹介する。
本フレームワークは,音声変換機能を組み込んで原音声と変換音声のasr転写を解析し,逆入力を検出する。
論文 参考訳(メタデータ) (2021-03-04T21:44:37Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。