論文の概要: Detecting Adversarial Examples for Speech Recognition via Uncertainty
Quantification
- arxiv url: http://arxiv.org/abs/2005.14611v2
- Date: Sun, 2 Aug 2020 16:37:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 13:42:45.017546
- Title: Detecting Adversarial Examples for Speech Recognition via Uncertainty
Quantification
- Title(参考訳): 不確実性定量化による音声認識の逆例検出
- Authors: Sina D\"aubener, Lea Sch\"onherr, Asja Fischer, Dorothea Kolossa
- Abstract要約: 機械学習システム、特に自動音声認識(ASR)システムは、敵の攻撃に対して脆弱である。
本稿では,ハイブリッドASRシステムに着目し,攻撃時の不確実性を示す能力に関する4つの音響モデルを比較した。
我々は、受信演算子曲線スコア0.99以上の領域の逆例を検出することができる。
- 参考スコア(独自算出の注目度): 21.582072216282725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning systems and also, specifically, automatic speech recognition
(ASR) systems are vulnerable against adversarial attacks, where an attacker
maliciously changes the input. In the case of ASR systems, the most interesting
cases are targeted attacks, in which an attacker aims to force the system into
recognizing given target transcriptions in an arbitrary audio sample. The
increasing number of sophisticated, quasi imperceptible attacks raises the
question of countermeasures. In this paper, we focus on hybrid ASR systems and
compare four acoustic models regarding their ability to indicate uncertainty
under attack: a feed-forward neural network and three neural networks
specifically designed for uncertainty quantification, namely a Bayesian neural
network, Monte Carlo dropout, and a deep ensemble. We employ uncertainty
measures of the acoustic model to construct a simple one-class classification
model for assessing whether inputs are benign or adversarial. Based on this
approach, we are able to detect adversarial examples with an area under the
receiving operator curve score of more than 0.99. The neural networks for
uncertainty quantification simultaneously diminish the vulnerability to the
attack, which is reflected in a lower recognition accuracy of the malicious
target text in comparison to a standard hybrid ASR system.
- Abstract(参考訳): 機械学習システム、特に自動音声認識(ASR)システムは、攻撃者が入力を悪意を持って変更する敵攻撃に対して脆弱である。
asrシステムの場合、最も興味深いケースはターゲット攻撃であり、攻撃者は任意のオーディオサンプルで特定のターゲットの転写を認識するようシステムを強制することを目的としている。
高度な準受容不能な攻撃の増加は、対策の問題を引き起こす。
本稿では,ハイブリッドASRシステムに注目し,攻撃中の不確実性を示す能力に関する4つの音響モデルを比較する。フィードフォワードニューラルネットワークと,不確実性定量化に特化した3つのニューラルネットワーク,すなわちベイズニューラルネットワーク,モンテカルロドロップアウト,深層アンサンブル。
入力が良性であるか逆性であるかを評価するための単純な一級分類モデルを構築するために、音響モデルの不確実性尺度を用いる。
このアプローチにより、受信演算子曲線スコア0.99以上の領域の逆例を検出することができる。
不確実性定量化のためのニューラルネットワークは、標準的なハイブリッドASRシステムと比較して悪意のあるターゲットテキストの認識精度が低い攻撃に対する脆弱性を同時に減少させる。
関連論文リスト
- How adversarial attacks can disrupt seemingly stable accurate
classifiers [80.2657717174889]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Towards an Accurate and Secure Detector against Adversarial
Perturbations [58.02078078305753]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然・人工データの識別的分解を通じて、敵対的なパターンを検出する。
本研究では,秘密鍵を用いた空間周波数判別分解に基づく,高精度かつセキュアな対向検波器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Novelty Detection in Network Traffic: Using Survival Analysis for
Feature Identification [1.933681537640272]
侵入検知システムは、多くの組織のサイバー防衛とレジリエンス戦略の重要な構成要素である。
これらのシステムの欠点の1つは、悪意のあるネットワークイベントを検出するために既知の攻撃シグネチャに依存することである。
本稿では,生存分析技術に基づく新規性検出に影響を及ぼすネットワークトラフィックの特徴を識別するための,従来からあるアプローチを提案する。
論文 参考訳(メタデータ) (2023-01-16T01:40:29Z) - LMD: A Learnable Mask Network to Detect Adversarial Examples for Speaker
Verification [17.968334617708244]
本稿では,攻撃者に依存しない,解釈可能な手法を提案する。
スコア変動検出器の中核成分は、ニューラルネットワークによりマスクされた分光図を生成することである。
提案手法は,5つの最先端のベースラインより優れている。
論文 参考訳(メタデータ) (2022-11-02T02:03:53Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Evaluation of Neural Networks Defenses and Attacks using NDCG and
Reciprocal Rank Metrics [6.6389732792316]
分類タスクにおけるニューラルネットワークの出力に対する攻撃効果、防衛効果の回復効果を特に測定するために設計された2つの指標を示す。
正規化された累積ゲインと、情報検索文献で使用される相互ランクの指標に着想を得て、ニューラルネットワーク予測を結果のランクリストとして扱う。
一般的な分類指標と比較すると,提案指標は優れた情報的・独特性を示す。
論文 参考訳(メタデータ) (2022-01-10T12:54:45Z) - Robustifying automatic speech recognition by extracting slowly varying
features [20.96846497286073]
敵攻撃に対する防御機構を提案する。
このような方法で事前処理されたデータに基づいてトレーニングされたハイブリッドASRモデルを使用します。
本モデルでは, ベースラインモデルと類似したクリーンデータの性能を示すとともに, 4倍以上の堅牢性を示した。
論文 参考訳(メタデータ) (2021-12-14T13:50:23Z) - Blackbox Untargeted Adversarial Testing of Automatic Speech Recognition
Systems [1.599072005190786]
音声認識システムは、家電の音声ナビゲーションや音声制御への応用に広く利用されている。
ディープニューラルネットワーク(DNN)は、敵の摂動に感受性があることが示されている。
本稿では,ASRSの正しさをテストするため,ブラックボックスの自動生成手法を提案する。
論文 参考訳(メタデータ) (2021-12-03T10:21:47Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。