論文の概要: PBSM: Backdoor attack against Keyword spotting based on pitch boosting
and sound masking
- arxiv url: http://arxiv.org/abs/2211.08697v1
- Date: Wed, 16 Nov 2022 06:20:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 14:56:57.665909
- Title: PBSM: Backdoor attack against Keyword spotting based on pitch boosting
and sound masking
- Title(参考訳): PBSM:ピッチアップとサウンドマスキングに基づくキーワードスポッティングに対するバックドア攻撃
- Authors: Hanbo Cai, Pengcheng Zhang, Hai Dong, Yan Xiao, Shunhui Ji
- Abstract要約: KWSのためのピッチブースティングとサウンドマスキングに基づくバックドア攻撃方式を設計する。
実験の結果,PBSMは3つの犠牲者モデルにおいて平均攻撃成功率を90%近く達成できる可能性が示唆された。
- 参考スコア(独自算出の注目度): 6.495134473374733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Keyword spotting (KWS) has been widely used in various speech control
scenarios. The training of KWS is usually based on deep neural networks and
requires a large amount of data. Manufacturers often use third-party data to
train KWS. However, deep neural networks are not sufficiently interpretable to
manufacturers, and attackers can manipulate third-party training data to plant
backdoors during the model training. An effective backdoor attack can force the
model to make specified judgments under certain conditions, i.e., triggers. In
this paper, we design a backdoor attack scheme based on Pitch Boosting and
Sound Masking for KWS, called PBSM. Experimental results demonstrated that PBSM
is feasible to achieve an average attack success rate close to 90% in three
victim models when poisoning less than 1% of the training data.
- Abstract(参考訳): キーワードスポッティング(KWS)は様々な音声制御シナリオで広く使われている。
KWSのトレーニングは通常、ディープニューラルネットワークに基づいており、大量のデータを必要とする。
メーカーはしばしばサードパーティのデータを使ってkwを訓練する。
しかし、ディープニューラルネットワークはメーカーには十分に解釈できないため、攻撃者はモデルトレーニング中にサードパーティのトレーニングデータを操作してバックドアを植えることができる。
効果的なバックドア攻撃は、モデルに特定の条件、すなわちトリガーの下で特定の判断を強制することができる。
本稿では,PBSM と呼ばれる KWS のための Pitch Boosting と Sound Masking に基づくバックドア攻撃方式を設計する。
実験の結果,PBSMはトレーニングデータの1%未満を中毒した場合に3つのモデルで平均攻撃成功率を90%近く達成できることがわかった。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - DLP: towards active defense against backdoor attacks with decoupled learning process [2.686336957004475]
バックドア攻撃に対する防御のための一般的な訓練パイプラインを提案する。
トレーニング中, 清潔なサブセットと有毒なサブセットで異なる学習行動を示すモデルを示す。
提案手法の有効性は,様々なバックドア攻撃やデータセットにまたがる数多くの実験で実証されている。
論文 参考訳(メタデータ) (2024-06-18T23:04:38Z) - BDMMT: Backdoor Sample Detection for Language Models through Model
Mutation Testing [14.88575793895578]
本稿では,深層モデル変異検査に基づく防御手法を提案する。
バックドアサンプルの検出におけるモデル変異検査の有効性をまず確認した。
次に,広範に研究された3つのバックドアアタックレベルに対して,系統的に防御を行った。
論文 参考訳(メタデータ) (2023-01-25T05:24:46Z) - VSVC: Backdoor attack against Keyword Spotting based on Voiceprint
Selection and Voice Conversion [6.495134473374733]
ディープニューラルネットワーク(DNN)に基づくキーワードスポッティング(KWS)は、音声制御シナリオにおいて大きな成功を収めている。
本稿では,Voiceprint Selection and Voice Conversion(VSVC)に基づくバックドア攻撃方式を提案する。
VSVCは、トレーニングデータの1%未満を汚染している4つの犠牲者モデルにおいて、平均的な攻撃成功率を97%近く達成することが可能である。
論文 参考訳(メタデータ) (2022-12-20T09:24:25Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Backdoor Attacks on Crowd Counting [63.90533357815404]
クラウドカウント(Crowd counting)は、シーンイメージ内の人数を推定する回帰タスクである。
本稿では,深層学習に基づくクラウドカウントモデルのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-07-12T16:17:01Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Can You Hear It? Backdoor Attacks via Ultrasonic Triggers [31.147899305987934]
本研究では,自動音声認識システムへのバックドア攻撃の選択肢について検討する。
以上の結果から, 毒性データの1%未満は, バックドア攻撃の実施に十分であり, 100%攻撃成功率に達することが示唆された。
論文 参考訳(メタデータ) (2021-07-30T12:08:16Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。