論文の概要: Towards Stealthy Backdoor Attacks against Speech Recognition via
Elements of Sound
- arxiv url: http://arxiv.org/abs/2307.08208v1
- Date: Mon, 17 Jul 2023 02:58:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 15:03:49.152948
- Title: Towards Stealthy Backdoor Attacks against Speech Recognition via
Elements of Sound
- Title(参考訳): 音声要素による音声認識に対するステルスバックドア攻撃に向けて
- Authors: Hanbo Cai, Pengcheng Zhang, Hai Dong, Yan Xiao, Stefanos Koffas,
Yiming Li
- Abstract要約: ディープニューラルネットワーク(Deep Neural Network, DNN)は、音声認識の様々な応用に広く採用され、導入されている。
本稿では,音声認識に対する毒のみのバックドア攻撃について再検討する。
我々は音(例えば、ピッチと音色)の要素を利用して、よりステルスで効果的な毒のみのバックドア攻撃を設計する。
- 参考スコア(独自算出の注目度): 9.24846124692153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have been widely and successfully adopted and
deployed in various applications of speech recognition. Recently, a few works
revealed that these models are vulnerable to backdoor attacks, where the
adversaries can implant malicious prediction behaviors into victim models by
poisoning their training process. In this paper, we revisit poison-only
backdoor attacks against speech recognition. We reveal that existing methods
are not stealthy since their trigger patterns are perceptible to humans or
machine detection. This limitation is mostly because their trigger patterns are
simple noises or separable and distinctive clips. Motivated by these findings,
we propose to exploit elements of sound ($e.g.$, pitch and timbre) to design
more stealthy yet effective poison-only backdoor attacks. Specifically, we
insert a short-duration high-pitched signal as the trigger and increase the
pitch of remaining audio clips to `mask' it for designing stealthy pitch-based
triggers. We manipulate timbre features of victim audios to design the stealthy
timbre-based attack and design a voiceprint selection module to facilitate the
multi-backdoor attack. Our attacks can generate more `natural' poisoned samples
and therefore are more stealthy. Extensive experiments are conducted on
benchmark datasets, which verify the effectiveness of our attacks under
different settings ($e.g.$, all-to-one, all-to-all, clean-label, physical, and
multi-backdoor settings) and their stealthiness. The code for reproducing main
experiments are available at \url{https://github.com/HanboCai/BadSpeech_SoE}.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Network, DNN)は、音声認識の様々な応用に広く採用され、導入されている。
最近、いくつかの研究がこれらのモデルがバックドア攻撃に弱いことを明らかにしており、敵はトレーニングプロセスに毒を加えて悪意ある予測行動を被害者モデルに埋め込むことができる。
本稿では,音声認識に対する毒素のみのバックドア攻撃を再検討する。
トリガーパターンは人間や機械検出に認識できるため,既存の手法はステルス性がないことが明らかとなった。
この制限は主に、トリガーパターンが単純なノイズまたは分離可能で独特なクリップであるためである。
これらの発見に動機づけられて、我々は音の要素(例えば、ピッチと音色)を利用してよりステルスで効果的な毒のみのバックドア攻撃を設計することを提案する。
具体的には、トリガーとして短時間の高ピッチ信号を挿入し、ステルスなピッチベーストリガーを設計するための「マスク」に残音声クリップのピッチを拡大する。
我々は、被害者音声の音色特性を操り、ステルス音色に基づく攻撃を設計し、マルチバックドア攻撃を容易にするための音声プリント選択モジュールを設計する。
我々の攻撃はより「自然」な毒のサンプルを生成できるため、よりステルス性が高い。
ベンチマークデータセットでは、さまざまな設定($、all-to-one、all-to-all、clean-label、 physical、multi-backdoorなど)における攻撃の有効性とステルス性を検証する、広範な実験が行われています。
主な実験を再現するコードは \url{https://github.com/hanbocai/badspeech_soe} で入手できる。
関連論文リスト
- NoiseAttack: An Evasive Sample-Specific Multi-Targeted Backdoor Attack Through White Gaussian Noise [0.19820694575112383]
ディープラーニング開発にサードパーティのデータを使用する場合、バックドア攻撃は重大な脅威となる。
我々は,新しいサンプル特異的なマルチターゲットバックドアアタック,すなわちNossAttackを紹介した。
この作業は、複数のターゲットクラスを生成する目的でビジョンバックドアアタックを起動する、この種の最初のものだ。
論文 参考訳(メタデータ) (2024-09-03T19:24:46Z) - Imperceptible Rhythm Backdoor Attacks: Exploring Rhythm Transformation for Embedding Undetectable Vulnerabilities on Speech Recognition [4.164975438207411]
近年,音声認識システムにおいて,典型的なバックドア攻撃が研究されている。
攻撃者は、良質な音声スペクトログラムにいくつかの組み込まれた変更を加えたり、ピッチや音色などの音声成分を変更したりする。
データ中毒のステルス性を改善するために,ランダム・スペクトログラム・リズム・トランスフォーメーション (Random Spectrogram Rhythm Transformation) と呼ばれる非ニューラルかつ高速なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:21Z) - Not All Prompts Are Secure: A Switchable Backdoor Attack Against Pre-trained Vision Transformers [51.0477382050976]
この作業でスイッチトークンと呼ばれる追加のプロンプトトークンは、バックドアモードをオンにすることができ、良心的なモデルをバックドアモードに変換することができる。
事前訓練されたモデルを攻撃するため、SWARMと呼ばれる攻撃はトリガを学習し、スイッチトークンを含むトークンをプロンプトする。
多様な視覚認識タスクの実験は、切り替え可能なバックドア攻撃の成功を確認し、95%以上の攻撃成功率を達成した。
論文 参考訳(メタデータ) (2024-05-17T08:19:48Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Breaking Speaker Recognition with PaddingBack [18.219474338850787]
近年の研究では、音声バックドアは画像バックドアと同様に、変換をトリガーとして利用できることが示されている。
パディングバック(PaddingBack)は悪質な操作を利用して有毒なサンプルを生成する無音バックドアアタックである。
論文 参考訳(メタデータ) (2023-08-08T10:36:44Z) - Fake the Real: Backdoor Attack on Deep Speech Classification via Voice
Conversion [14.264424889358208]
本研究は,音声変換に基づくサンプル特異的トリガを用いたバックドアアタックを探索する。
具体的には、事前に訓練された音声変換モデルを用いてトリガーを生成する。
論文 参考訳(メタデータ) (2023-06-28T02:19:31Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Kallima: A Clean-label Framework for Textual Backdoor Attacks [25.332731545200808]
マイメシススタイルのバックドアサンプルを合成するための,最初のクリーンラベルフレームワークKallimaを提案する。
我々は,対象クラスに属する入力を逆方向の摂動で修正し,モデルがバックドアトリガに依存するようにした。
論文 参考訳(メタデータ) (2022-06-03T21:44:43Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。