論文の概要: Adversarial Attacks on ASR Systems: An Overview
- arxiv url: http://arxiv.org/abs/2208.02250v1
- Date: Wed, 3 Aug 2022 06:46:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:16:18.430482
- Title: Adversarial Attacks on ASR Systems: An Overview
- Title(参考訳): asrシステムに対する敵対的攻撃:概要
- Authors: Xiao Zhang, Hao Tan, Xuan Huang, Denghui Zhang, Keke Tang, Zhaoquan Gu
- Abstract要約: 過去数年間、ASRシステムに対する敵の事例攻撃について多くの研究がなされている。
本稿では,ASRシステムの開発,攻撃の仮定の相違,攻撃の評価方法について述べる。
- 参考スコア(独自算出の注目度): 21.042752545701976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of hardware and algorithms, ASR(Automatic Speech
Recognition) systems evolve a lot. As The models get simpler, the difficulty of
development and deployment become easier, ASR systems are getting closer to our
life. On the one hand, we often use APPs or APIs of ASR to generate subtitles
and record meetings. On the other hand, smart speaker and self-driving car rely
on ASR systems to control AIoT devices. In past few years, there are a lot of
works on adversarial examples attacks against ASR systems. By adding a small
perturbation to the waveforms, the recognition results make a big difference.
In this paper, we describe the development of ASR system, different assumptions
of attacks, and how to evaluate these attacks. Next, we introduce the current
works on adversarial examples attacks from two attack assumptions: white-box
attack and black-box attack. Different from other surveys, we pay more
attention to which layer they perturb waveforms in ASR system, the relationship
between these attacks, and their implementation methods. We focus on the effect
of their works.
- Abstract(参考訳): ハードウェアとアルゴリズムの開発により、ASR(Automatic Speech Recognition)システムは大いに進化した。
モデルがシンプルになると、開発とデプロイメントの難しさがより簡単になり、asrシステムは私たちの生活に近づいています。
一方、私たちはしばしば asr のアプリや api を使ってサブタイトルを生成し、ミーティングを記録します。
一方、スマートスピーカーと自動運転車は、AIoTデバイスを制御するためにASRシステムに依存している。
過去数年間、asrシステムに対する敵対的な例攻撃に多くの取り組みがなされている。
波形に小さな摂動を加えることで、認識結果は大きな違いをもたらす。
本稿では,asrシステムの開発,攻撃の異なる仮定,これらの攻撃の評価方法について述べる。
次に、白箱攻撃と黒箱攻撃という2つの攻撃仮定による敵例攻撃に関する現在の研究を紹介する。
他の調査と異なり、ASRシステム内のどの層が摂動波形を摂動しているか、これらの攻撃とそれらの実装方法との関係についてより注意を払う。
私たちは彼らの作品の効果に焦点を当てる。
関連論文リスト
- DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - PRAT: PRofiling Adversarial aTtacks [52.693011665938734]
PRofiling Adversarial aTacks (PRAT) の新たな問題点について紹介する。
敵対的な例として、PRATの目的は、それを生成するのに使用される攻撃を特定することである。
AIDを用いてPRATの目的のための新しいフレームワークを考案する。
論文 参考訳(メタデータ) (2023-09-20T07:42:51Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Watch What You Pretrain For: Targeted, Transferable Adversarial Examples
on Self-Supervised Speech Recognition models [27.414693266500603]
攻撃対象の敵攻撃は、自動音声認識システムに攻撃テキストを出力させる音声サンプルを生成する。
近年の研究では、大きなASRモデルに対する転送性は非常に難しいことが示されている。
現代のASRアーキテクチャ、特にセルフ・スーパーバイザード・ラーニングに基づくアーキテクチャは、実際にトランスファービリティーに対して脆弱であることを示す。
論文 参考訳(メタデータ) (2022-09-17T15:01:26Z) - Language Dependencies in Adversarial Attacks on Speech Recognition
Systems [0.0]
我々は、ドイツ語と英語のASRシステムの攻撃可能性を比較する。
一方の言語モデルが他方よりも操作に影響を受けやすいかを検討する。
論文 参考訳(メタデータ) (2022-02-01T13:27:40Z) - Robustifying automatic speech recognition by extracting slowly varying features [16.74051650034954]
敵攻撃に対する防御機構を提案する。
このような方法で事前処理されたデータに基づいてトレーニングされたハイブリッドASRモデルを使用します。
本モデルでは, ベースラインモデルと類似したクリーンデータの性能を示すとともに, 4倍以上の堅牢性を示した。
論文 参考訳(メタデータ) (2021-12-14T13:50:23Z) - Blackbox Untargeted Adversarial Testing of Automatic Speech Recognition
Systems [1.599072005190786]
音声認識システムは、家電の音声ナビゲーションや音声制御への応用に広く利用されている。
ディープニューラルネットワーク(DNN)は、敵の摂動に感受性があることが示されている。
本稿では,ASRSの正しさをテストするため,ブラックボックスの自動生成手法を提案する。
論文 参考訳(メタデータ) (2021-12-03T10:21:47Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - SoK: A Modularized Approach to Study the Security of Automatic Speech
Recognition Systems [13.553395767144284]
我々は、ASRセキュリティのための知識の体系化と、モジュール化されたワークフローに基づく既存の作業の包括的分類を提供する。
本稿では,この領域の研究を,画像認識システム(irs)におけるセキュリティに関する研究と一致させる。
これらの類似性により、IRSが提案する攻撃と防衛ソリューションのスペクトルに基づいて、ASRセキュリティにおける既存の文献を体系的に研究することができる。
対照的に、それらの違い、特にIRSと比較してASRの複雑さは、ASRセキュリティのユニークな課題と機会を学ぶのに役立ちます。
論文 参考訳(メタデータ) (2021-03-19T06:24:04Z) - On Adversarial Examples and Stealth Attacks in Artificial Intelligence
Systems [62.997667081978825]
本稿では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と分析を行うための公式な枠組みを提案する。
最初のクラスは、逆例を含み、誤分類を引き起こす入力データの小さな摂動の導入を懸念する。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
論文 参考訳(メタデータ) (2020-04-09T10:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。