論文の概要: Towards Understanding and Mitigating Audio Adversarial Examples for
Speaker Recognition
- arxiv url: http://arxiv.org/abs/2206.03393v1
- Date: Tue, 7 Jun 2022 15:38:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-06-08 14:23:53.303290
- Title: Towards Understanding and Mitigating Audio Adversarial Examples for
Speaker Recognition
- Title(参考訳): 話者認識における音声対応事例の理解と緩和に向けて
- Authors: Guangke Chen and Zhe Zhao and Fu Song and Sen Chen and Lingling Fan
and Feng Wang and Jiashui Wang
- Abstract要約: 話者認識システム(SRS)は、最近、敵の攻撃に対して脆弱であることが示され、重大なセキュリティ上の懸念が提起されている。
話者認識に対する先進的な7つの攻撃を用いて、22の多様な変換を行い、徹底的に評価する。
提案手法は, 完全ホワイトボックス環境において, 対人訓練と組み合わせた特徴レベル変換が, 単独の対人訓練に比べ, より効果的であることを示す。
- 参考スコア(独自算出の注目度): 13.163192823774624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Speaker recognition systems (SRSs) have recently been shown to be vulnerable
to adversarial attacks, raising significant security concerns. In this work, we
systematically investigate transformation and adversarial training based
defenses for securing SRSs. According to the characteristic of SRSs, we present
22 diverse transformations and thoroughly evaluate them using 7 recent
promising adversarial attacks (4 white-box and 3 black-box) on speaker
recognition. With careful regard for best practices in defense evaluations, we
analyze the strength of transformations to withstand adaptive attacks. We also
evaluate and understand their effectiveness against adaptive attacks when
combined with adversarial training. Our study provides lots of useful insights
and findings, many of them are new or inconsistent with the conclusions in the
image and speech recognition domains, e.g., variable and constant bit rate
speech compressions have different performance, and some non-differentiable
transformations remain effective against current promising evasion techniques
which often work well in the image domain. We demonstrate that the proposed
novel feature-level transformation combined with adversarial training is rather
effective compared to the sole adversarial training in a complete white-box
setting, e.g., increasing the accuracy by 13.62% and attack cost by two orders
of magnitude, while other transformations do not necessarily improve the
overall defense capability. This work sheds further light on the research
directions in this field. We also release our evaluation platform SPEAKERGUARD
to foster further research.
- Abstract(参考訳): 話者認識システム(SRS)は、最近敵の攻撃に対して脆弱であることが示され、重大なセキュリティ上の懸念が提起されている。
本研究は,srssの確保を目的としたトランスフォーメーションと対向訓練に基づく防御を体系的に検討する。
srssの特徴により,22種類の多様な変換を提示し,話者認識における近年の有望な7つの敵攻撃(ホワイトボックス4つ,ブラックボックス3つ)を用いて徹底的に評価する。
防衛評価におけるベストプラクティスを慎重に検討し,適応攻撃に耐える変換の強さを分析した。
また, 対人訓練と組み合わせることで, 適応攻撃に対する効果を評価・理解する。
本研究は,画像領域や音声認識領域の結論と新しいものや矛盾するものが多いこと,例えば,可変ビットレートと定数ビットレートの音声圧縮は性能が異なること,画像領域でよく機能する現在の有望な回避技術に対して,微分不能な変換が有効であることなど,多くの有用な知見と知見を提供する。
提案手法は, 完全ホワイトボックス設定における単独の対人訓練に比べて, 対人訓練と組み合わせた新たな特徴レベル変換がより効果的であること, 例えば, 13.62%の精度向上と2桁の攻撃コスト向上を図っている。
この研究はこの分野の研究の方向性にさらに光を当てている。
評価プラットフォームであるSPEAKERGUARDもリリースし、さらなる研究を促進する。
関連論文リスト
- Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - Push-Pull: Characterizing the Adversarial Robustness for Audio-Visual
Active Speaker Detection [88.74863771919445]
我々は、音声のみ、視覚のみ、および音声-視覚的敵対攻撃下でのAVASDモデルの脆弱性を明らかにする。
また,攻撃者が現実的な相手を見つけるのを困難にするため,新たな音声・視覚的相互作用損失(AVIL)を提案する。
論文 参考訳(メタデータ) (2022-10-03T08:10:12Z) - AS2T: Arbitrary Source-To-Target Adversarial Attack on Speaker
Recognition Systems [15.013763364096638]
近年の研究では、敵対的攻撃に対する話者認識システム(SRS)の脆弱性が照らされている。
すべての設定をカバーするこのドメインの最初の攻撃であるAS2Tを紹介します。
本研究は, 無線通信において発生した可能性のある歪みについて検討し, 異なるパラメータの異なる変換関数を用いて, その歪みをモデル化し, 逆声の発生に組み込む。
論文 参考訳(メタデータ) (2022-06-07T14:38:55Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - SEC4SR: A Security Analysis Platform for Speaker Recognition [14.02700072458441]
SEC4SRは、研究者が話者認識における敵の攻撃と防御を体系的かつ包括的に評価できる最初のプラットフォームである。
ソ連における敵攻撃と防衛に関する大規模な実証的研究は,23の防衛,15の攻撃,4の攻撃設定を含む。
論文 参考訳(メタデータ) (2021-09-04T02:04:25Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - WaveGuard: Understanding and Mitigating Audio Adversarial Examples [12.010555227327743]
本稿では,ASRシステムに対する敵入力を検出するフレームワークであるWaveGuardを紹介する。
本フレームワークは,音声変換機能を組み込んで原音声と変換音声のasr転写を解析し,逆入力を検出する。
論文 参考訳(メタデータ) (2021-03-04T21:44:37Z) - Adversarial Attack and Defense Strategies for Deep Speaker Recognition
Systems [44.305353565981015]
本稿では, 深層話者認識システムに対する最先端の敵攻撃について考察し, 強力な防御手法を対策として用いた。
実験により、話者認識システムは敵攻撃に弱いことが示され、最も強い攻撃はシステムの精度を94%から0%に下げることができる。
論文 参考訳(メタデータ) (2020-08-18T00:58:19Z) - Adversarial Training against Location-Optimized Adversarial Patches [84.96938953835249]
反対のパッチ: 明らかに見えますが 反対に作られた長方形のパッチです
まず、画像内の位置を積極的に最適化しながら、相手パッチを得るための実践的なアプローチを考案する。
CIFAR10とGTSRBでは,これらの位置最適化された対向パッチに対して対向トレーニングを適用し,ロバスト性を著しく向上した。
論文 参考訳(メタデータ) (2020-05-05T16:17:00Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。