論文の概要: VSVC: Backdoor attack against Keyword Spotting based on Voiceprint
Selection and Voice Conversion
- arxiv url: http://arxiv.org/abs/2212.10103v1
- Date: Tue, 20 Dec 2022 09:24:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 14:56:30.127434
- Title: VSVC: Backdoor attack against Keyword Spotting based on Voiceprint
Selection and Voice Conversion
- Title(参考訳): VSVC:Voiceprint SelectionとVoice Conversionに基づくキーワードスポッティングに対するバックドア攻撃
- Authors: Hanbo Cai, Pengcheng Zhang, Hai Dong, Yan Xiao, Shunhui Ji
- Abstract要約: ディープニューラルネットワーク(DNN)に基づくキーワードスポッティング(KWS)は、音声制御シナリオにおいて大きな成功を収めている。
本稿では,Voiceprint Selection and Voice Conversion(VSVC)に基づくバックドア攻撃方式を提案する。
VSVCは、トレーニングデータの1%未満を汚染している4つの犠牲者モデルにおいて、平均的な攻撃成功率を97%近く達成することが可能である。
- 参考スコア(独自算出の注目度): 6.495134473374733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Keyword spotting (KWS) based on deep neural networks (DNNs) has achieved
massive success in voice control scenarios. However, training of such DNN-based
KWS systems often requires significant data and hardware resources.
Manufacturers often entrust this process to a third-party platform. This makes
the training process uncontrollable, where attackers can implant backdoors in
the model by manipulating third-party training data. An effective backdoor
attack can force the model to make specified judgments under certain
conditions, i.e., triggers. In this paper, we design a backdoor attack scheme
based on Voiceprint Selection and Voice Conversion, abbreviated as VSVC.
Experimental results demonstrated that VSVC is feasible to achieve an average
attack success rate close to 97% in four victim models when poisoning less than
1% of the training data.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)に基づくキーワードスポッティング(KWS)は、音声制御シナリオにおいて大きな成功を収めている。
しかしながら、このようなDNNベースのKWSシステムのトレーニングは、しばしば重要なデータとハードウェアリソースを必要とする。
メーカーは、このプロセスをサードパーティーのプラットフォームに委託することが多い。
これにより、サードパーティのトレーニングデータを操作することで、アタッカーがモデルにバックドアを埋め込むことができる。
効果的なバックドア攻撃は、モデルに特定の条件、すなわちトリガーの下で特定の判断を強制することができる。
本稿では,Voiceprint SelectionとVoice Conversionに基づくバックドア攻撃方式をVSVCと略して設計する。
実験の結果,VSVCはトレーニングデータの1%未満を中毒した場合に,4つのモデルで平均97%の攻撃成功率を達成することが可能であった。
関連論文リスト
- EmoBack: Backdoor Attacks Against Speaker Identification Using Emotional Prosody [25.134723977429076]
話者識別(SI)は、話者の発話に基づいて話者の身元を決定する。
これまでの研究は、SIディープニューラルネットワーク(DNN)がバックドア攻撃に対して脆弱であることを示している。
これは、SI DNNのバックドア攻撃に対する脆弱性を、話者の感情的韻律を用いて探求する最初の作品である。
論文 参考訳(メタデータ) (2024-08-02T11:00:12Z) - Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - BackdoorBox: A Python Toolbox for Backdoor Learning [67.53987387581222]
このPythonツールボックスは、代表的で高度なバックドア攻撃と防御を実装している。
研究者や開発者は、ベンチマークやローカルデータセットで、さまざまなメソッドを簡単に実装し、比較することができる。
論文 参考訳(メタデータ) (2023-02-01T09:45:42Z) - PBSM: Backdoor attack against Keyword spotting based on pitch boosting
and sound masking [6.495134473374733]
KWSのためのピッチブースティングとサウンドマスキングに基づくバックドア攻撃方式を設計する。
実験の結果,PBSMは3つの犠牲者モデルにおいて平均攻撃成功率を90%近く達成できる可能性が示唆された。
論文 参考訳(メタデータ) (2022-11-16T06:20:47Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - Neurotoxin: Durable Backdoors in Federated Learning [73.82725064553827]
連合学習システムは バックドア攻撃の訓練中に 固有の脆弱性がある
我々は,既存のバックドア攻撃に対する単純な一直線修正であるニューロトキシンを提案する。
論文 参考訳(メタデータ) (2022-06-12T16:52:52Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Turn the Combination Lock: Learnable Textual Backdoor Attacks via Word
Substitution [57.51117978504175]
最近の研究では、ニューラルネットワーク処理(NLP)モデルがバックドア攻撃に弱いことが示されている。
バックドアを注入すると、モデルは通常、良質な例で実行されるが、バックドアがアクティブになったときに攻撃者が特定した予測を生成する。
単語置換の学習可能な組み合わせによって活性化される見えないバックドアを提示する。
論文 参考訳(メタデータ) (2021-06-11T13:03:17Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Light Can Hack Your Face! Black-box Backdoor Attack on Face Recognition
Systems [0.0]
顔認識システムにおけるブラックボックスバックドア攻撃手法を提案する。
バックドアトリガは極めて効果的であり、攻撃成功率は最大で88%である。
本研究は,既存の顔認識/検証技術のセキュリティ問題に注意を喚起する,新たな物理的バックドア攻撃を明らかにしたことを強調した。
論文 参考訳(メタデータ) (2020-09-15T11:50:29Z) - Mitigating backdoor attacks in LSTM-based Text Classification Systems by
Backdoor Keyword Identification [0.0]
テキスト分類システムでは、モデルに挿入されたバックドアがスパムや悪意のある音声を検知から逃れる可能性がある。
本稿では,内LSTMニューロンの変化を分析することによって,バックドア攻撃を緩和するためのバックドアキーワード識別(BKI)と呼ばれる防御手法を提案する。
本手法は,IMDB,DBpedia,20のニュースグループ,Reuters-21578データセットの4つの異なるテキスト分類ダットセットで評価する。
論文 参考訳(メタデータ) (2020-07-11T09:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。