論文の概要: Interpretable Spectrum Transformation Attacks to Speaker Recognition
- arxiv url: http://arxiv.org/abs/2302.10686v1
- Date: Tue, 21 Feb 2023 14:12:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 14:52:21.290441
- Title: Interpretable Spectrum Transformation Attacks to Speaker Recognition
- Title(参考訳): 話者認識に対する解釈可能なスペクトル変換攻撃
- Authors: Jiadi Yao, Hong Luo, and Xiao-Lei Zhang
- Abstract要約: ブラックボックスの被害者モデルに対する敵声の伝達性を改善するための一般的な枠組みが提案されている。
提案フレームワークは時間周波数領域で音声を動作させ,攻撃の解釈性,伝達性,非受容性を向上させる。
- 参考スコア(独自算出の注目度): 8.770780902627441
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of adversarial attacks to speaker recognition is mainly in
white-box scenarios. When applying the adversarial voices that are generated by
attacking white-box surrogate models to black-box victim models, i.e.
\textit{transfer-based} black-box attacks, the transferability of the
adversarial voices is not only far from satisfactory, but also lacks
interpretable basis. To address these issues, in this paper, we propose a
general framework, named spectral transformation attack based on modified
discrete cosine transform (STA-MDCT), to improve the transferability of the
adversarial voices to a black-box victim model. Specifically, we first apply
MDCT to the input voice. Then, we slightly modify the energy of different
frequency bands for capturing the salient regions of the adversarial noise in
the time-frequency domain that are critical to a successful attack. Unlike
existing approaches that operate voices in the time domain, the proposed
framework operates voices in the time-frequency domain, which improves the
interpretability, transferability, and imperceptibility of the attack.
Moreover, it can be implemented with any gradient-based attackers. To utilize
the advantage of model ensembling, we not only implement STA-MDCT with a single
white-box surrogate model, but also with an ensemble of surrogate models.
Finally, we visualize the saliency maps of adversarial voices by the class
activation maps (CAM), which offers an interpretable basis to transfer-based
attacks in speaker recognition for the first time. Extensive comparison results
with five representative attackers show that the CAM visualization clearly
explains the effectiveness of STA-MDCT, and the weaknesses of the comparison
methods; the proposed method outperforms the comparison methods by a large
margin.
- Abstract(参考訳): 話者認識に対する敵意攻撃の成功は主にホワイトボックスのシナリオである。
ブラックボックスの被害者モデル、すなわち「textit{transfer-based} black-box attack」に対して、ホワイトボックスのサロゲートモデルを攻撃することによって発生する敵の声を適用する場合、相手の声の転送性は満足できるだけでなく、解釈可能な基礎も欠いている。
これらの問題に対処するため, 修正離散コサイン変換(STA-MDCT)に基づくスペクトル変換攻撃法を提案する。
具体的には、まず入力音声にMDCTを適用する。
そして、攻撃の成功に不可欠な時間周波数領域における敵ノイズの突出領域を捉えるために、異なる周波数帯域のエネルギーをわずかに変更する。
時間領域で音声を操作する既存のアプローチとは異なり、提案フレームワークは時間周波数領域で音声を操作することにより、攻撃の解釈可能性、伝達可能性、非受容性を改善する。
さらに、勾配ベースの攻撃者でも実装できる。
モデルアンサンブルの利点を利用するために,STA-MDCTを単一のホワイトボックスサロゲートモデルで実装するだけでなく,サロゲートモデルのアンサンブルで実装する。
最後に,クラスアクティベーションマップ (CAM) を用いて, 話者認識における伝達に基づく攻撃に対する解釈可能な基盤を提供する。
5名の代表的な攻撃者による広範囲比較の結果, カム可視化により, sta-mdctの有効性が明らかになり, 比較方法の弱点が明らかとなった。
関連論文リスト
- SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - SLMIA-SR: Speaker-Level Membership Inference Attacks against Speaker
Recognition Systems [6.057334150052503]
SLMIA-SRは、話者認識(SR)に適した最初の会員推論攻撃である
私たちの攻撃は万能で、ホワイトボックスとブラックボックスの両方のシナリオで機能します。
論文 参考訳(メタデータ) (2023-09-14T18:40:28Z) - T-SEA: Transfer-based Self-Ensemble Attack on Object Detection [9.794192858806905]
複数のブラックボックス検出器に対する高信頼度対向攻撃を実現するために, 1 つのモデルのみを用いて, モノ検出に対する単一モデル転送ベースブラックボックス攻撃を提案する。
我々は、パッチ最適化を正規モデル最適化と類似させ、入力データ、攻撃モデル、および敵パッチに一連の自己アンサンブルアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-16T10:27:06Z) - Mel Frequency Spectral Domain Defenses against Adversarial Attacks on
Speech Recognition Systems [33.21836814000979]
本稿では,メルスペクトル領域を用いた音声特異的防音について検討し,新しい防音法「メル領域ノイズフラッディング(MDNF)」を提案する。
MDNFは音声信号の再合成に先立って音声のメルスペクトルに付加雑音を適用する。
プロジェクテッド勾配降下(PGD)やカルリーニ・ワグナー(CW)攻撃などの強力なホワイトボックス攻撃に対する防御実験を行った。
論文 参考訳(メタデータ) (2022-03-29T06:58:26Z) - Modelling Adversarial Noise for Adversarial Defense [96.56200586800219]
敵の防御は、通常、敵の音を除去したり、敵の頑強な目標モデルを訓練するために、敵の例を活用することに焦点を当てる。
逆データと自然データの関係は、逆データからクリーンデータを推測し、最終的な正しい予測を得るのに役立ちます。
本研究では, ラベル空間の遷移関係を学習するために, 逆方向の雑音をモデル化し, 逆方向の精度を向上させることを目的とした。
論文 参考訳(メタデータ) (2021-09-21T01:13:26Z) - Self-Supervised Iterative Contextual Smoothing for Efficient Adversarial
Defense against Gray- and Black-Box Attack [24.66829920826166]
グレーボックスとブラックボックス攻撃に対する新しい入力変換に基づく対角防御法を提案する。
我々の防御には計算に費用がかかる敵の訓練は必要ないが、入力変換によってその堅牢な精度にアプローチすることができる。
論文 参考訳(メタデータ) (2021-06-22T09:51:51Z) - Gradient-based Adversarial Attacks against Text Transformers [96.73493433809419]
トランスモデルに対する初の汎用勾配攻撃を提案する。
我々は、ホワイトボックス攻撃が様々な自然言語タスクにおいて最先端の攻撃性能を達成することを実証的に実証する。
論文 参考訳(メタデータ) (2021-04-15T17:43:43Z) - Towards Robust Speech-to-Text Adversarial Attack [78.5097679815944]
本稿では,DeepSpeech,Kaldi,Lingvoなど,最先端の音声テキストシステムに対する新たな逆アルゴリズムを提案する。
本手法は, 逆最適化定式化の従来の歪み条件の拡張を開発することに基づいている。
元のサンプルと反対のサンプルの分布の差を測定するこの測定値の最小化は、正統な音声記録のサブスペースに非常に近い作成信号に寄与する。
論文 参考訳(メタデータ) (2021-03-15T01:51:41Z) - Decision-based Universal Adversarial Attack [55.76371274622313]
ブラックボックス設定では、現在の普遍的敵攻撃法は代用モデルを用いて摂動を生成する。
効率的な決定に基づくユニバーサルアタック(DUAttack)を提案する。
DUAttackの有効性は、他の最先端攻撃との比較によって検証される。
論文 参考訳(メタデータ) (2020-09-15T12:49:03Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。