論文の概要: Leveraging characteristics of the output probability distribution for
identifying adversarial audio examples
- arxiv url: http://arxiv.org/abs/2305.17000v1
- Date: Fri, 26 May 2023 14:59:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 14:06:09.598464
- Title: Leveraging characteristics of the output probability distribution for
identifying adversarial audio examples
- Title(参考訳): 対向音例同定のための出力確率分布の特徴の活用
- Authors: Mat\'ias P. Pizarro B., Dorothea Kolossa and Asja Fischer
- Abstract要約: 敵攻撃は、機械学習に基づく自動音声認識(ASR)システムに対するセキュリティ上の脅威を表す。
本稿では,各段階における出力トークン上の確率分布を予測するASRシステムに適用可能な逆例検出戦略を提案する。
- 参考スコア(独自算出の注目度): 24.256086326531573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks represent a security threat to machine learning based
automatic speech recognition (ASR) systems. To prevent such attacks we propose
an adversarial example detection strategy applicable to any ASR system that
predicts a probability distribution over output tokens in each time step. We
measure a set of characteristics of this distribution: the median, maximum, and
minimum over the output probabilities, the entropy, and the Jensen-Shannon
divergence of the distributions of subsequent time steps. Then, we fit a
Gaussian distribution to the characteristics observed for benign data. By
computing the likelihood of incoming new audio we can distinguish malicious
inputs from samples from clean data with an area under the receiving operator
characteristic (AUROC) higher than 0.99, which drops to 0.98 for less-quality
audio. To assess the robustness of our method we build adaptive attacks. This
reduces the AUROC to 0.96 but results in more noisy adversarial clips.
- Abstract(参考訳): 敵攻撃は、機械学習に基づく自動音声認識(ASR)システムに対するセキュリティ上の脅威を表す。
このような攻撃を防止するため,各段階における出力トークン上の確率分布を予測するASRシステムに適用可能な逆例検出戦略を提案する。
出力確率に対する中央値,最大値,最小値,エントロピー,およびその後の時間ステップの分布のジェンセン・シャノン分散といった,この分布の一連の特性を測定する。
次に,良性データで観測される特徴にガウス分布を適合させる。
新たなオーディオを受信する可能性を計算することで、受信演算子特性(AUROC)が0.99より高い領域を持つクリーンデータからサンプルからの悪意のある入力を区別することができる。
提案手法のロバスト性を評価するため,適応攻撃を行う。
これによりAUROCは0.96に減少するが、ノイズの多い敵のクリップとなる。
関連論文リスト
- PASA: Attack Agnostic Unsupervised Adversarial Detection using Prediction & Attribution Sensitivity Analysis [2.5347892611213614]
分類のためのディープニューラルネットワークは、サンプル入力に対する小さな摂動が誤った予測につながる敵攻撃に対して脆弱である。
本研究では, モデル予測と特徴属性のこの特性の実用的手法を開発し, 対向サンプルを検出する。
本手法は,敵が防御機構を認識した場合でも,競争性能を示す。
論文 参考訳(メタデータ) (2024-04-12T21:22:21Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Defending Substitution-Based Profile Pollution Attacks on Sequential
Recommenders [8.828396559882954]
本稿では,ある脆弱な要素を選択し,それを逆数要素に置換することで,入力シーケンスを修飾する置換型逆数攻撃アルゴリズムを提案する。
また、ディリクレ近傍サンプリングと呼ばれる効率的な対角防御手法を設計する。
特に,選択した項目を1ホットエンコーディングで表現し,エンコーディングの勾配上昇を行い,トレーニング中の項目埋め込みの最悪の場合の線形結合を探索する。
論文 参考訳(メタデータ) (2022-07-19T00:19:13Z) - Mitigating Closed-model Adversarial Examples with Bayesian Neural
Modeling for Enhanced End-to-End Speech Recognition [18.83748866242237]
厳密で実証的な「閉モデル対逆ロバスト性」の設定に焦点を当てる。
本稿では,ベイズニューラルネットワーク(BNN)を用いた対角検出器を提案する。
検出率を+2.77から+5.42%(相対+3.03から+6.26%)に改善し、単語エラー率をLibriSpeechデータセットで5.02から7.47%に下げる。
論文 参考訳(メタデータ) (2022-02-17T09:17:58Z) - Visualizing Classifier Adjacency Relations: A Case Study in Speaker
Verification and Voice Anti-Spoofing [72.4445825335561]
任意のバイナリ分類器によって生成される検出スコアから2次元表現を導出する簡単な方法を提案する。
ランク相関に基づいて,任意のスコアを用いた分類器の視覚的比較を容易にする。
提案手法は完全に汎用的であり,任意の検出タスクに適用可能だが,自動話者検証と音声アンチスプーフィングシステムによるスコアを用いた手法を実証する。
論文 参考訳(メタデータ) (2021-06-11T13:03:33Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Implicit Distributional Reinforcement Learning [61.166030238490634]
2つのディープジェネレータネットワーク(DGN)上に構築された暗黙の分布型アクター批判(IDAC)
半単純アクター (SIA) は、フレキシブルなポリシー分布を利用する。
我々は,代表的OpenAI Gym環境において,IDACが最先端のアルゴリズムより優れていることを観察する。
論文 参考訳(メタデータ) (2020-07-13T02:52:18Z) - Detecting Adversarial Examples for Speech Recognition via Uncertainty
Quantification [21.582072216282725]
機械学習システム、特に自動音声認識(ASR)システムは、敵の攻撃に対して脆弱である。
本稿では,ハイブリッドASRシステムに着目し,攻撃時の不確実性を示す能力に関する4つの音響モデルを比較した。
我々は、受信演算子曲線スコア0.99以上の領域の逆例を検出することができる。
論文 参考訳(メタデータ) (2020-05-24T19:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。