論文の概要: Fake the Real: Backdoor Attack on Deep Speech Classification via Voice
Conversion
- arxiv url: http://arxiv.org/abs/2306.15875v1
- Date: Wed, 28 Jun 2023 02:19:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 16:04:22.990555
- Title: Fake the Real: Backdoor Attack on Deep Speech Classification via Voice
Conversion
- Title(参考訳): fake the real: 音声変換によるディープ音声分類へのバックドア攻撃
- Authors: Zhe Ye, Terui Mao, Li Dong, Diqun Yan
- Abstract要約: 本研究は,音声変換に基づくサンプル特異的トリガを用いたバックドアアタックを探索する。
具体的には、事前に訓練された音声変換モデルを用いてトリガーを生成する。
- 参考スコア(独自算出の注目度): 14.264424889358208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep speech classification has achieved tremendous success and greatly
promoted the emergence of many real-world applications. However, backdoor
attacks present a new security threat to it, particularly with untrustworthy
third-party platforms, as pre-defined triggers set by the attacker can activate
the backdoor. Most of the triggers in existing speech backdoor attacks are
sample-agnostic, and even if the triggers are designed to be unnoticeable, they
can still be audible. This work explores a backdoor attack that utilizes
sample-specific triggers based on voice conversion. Specifically, we adopt a
pre-trained voice conversion model to generate the trigger, ensuring that the
poisoned samples does not introduce any additional audible noise. Extensive
experiments on two speech classification tasks demonstrate the effectiveness of
our attack. Furthermore, we analyzed the specific scenarios that activated the
proposed backdoor and verified its resistance against fine-tuning.
- Abstract(参考訳): 深い音声分類は大きな成功を収め、多くの実世界の応用の出現を大いに促進した。
しかし、バックドア攻撃は、特に信頼できるサードパーティプラットフォームにおいて、攻撃者が設定した事前定義されたトリガーがバックドアをアクティベートできるため、新たなセキュリティ脅威をもたらす。
既存の音声バックドア攻撃のトリガーのほとんどはサンプルに依存しないものであり、たとえトリガーが目立たずに設計されているとしても、音は聞こえる。
本研究は,音声変換に基づくサンプル特異的トリガを用いたバックドア攻撃を探索する。
具体的には,事前学習した音声変換モデルを用いてトリガーを生成し,有毒なサンプルが追加の可聴音を発生させないようにする。
2つの音声分類タスクに対する大規模な実験により,攻撃の有効性が示された。
さらに,提案するバックドアを活性化する特定のシナリオを分析し,微調整に対する抵抗を検証した。
関連論文リスト
- The Art of Deception: Robust Backdoor Attack using Dynamic Stacking of
Triggers [0.0]
近年の研究では、聴覚バックドアが特定の変更を開始メカニズムとして用いる可能性があることが判明している。
DynamicTriggerは動的バックドアアタックを実行するための方法論として紹介されている。
動的音源トリガーによる変動信号のサンプリング率と話者の身元をマスキングすることにより、音声認識システムを欺くことができる。
論文 参考訳(メタデータ) (2024-01-03T04:31:59Z) - Towards Stealthy Backdoor Attacks against Speech Recognition via
Elements of Sound [9.24846124692153]
ディープニューラルネットワーク(Deep Neural Network, DNN)は、音声認識の様々な応用に広く採用され、導入されている。
本稿では,音声認識に対する毒のみのバックドア攻撃について再検討する。
我々は音(例えば、ピッチと音色)の要素を利用して、よりステルスで効果的な毒のみのバックドア攻撃を設計する。
論文 参考訳(メタデータ) (2023-07-17T02:58:25Z) - From Shortcuts to Triggers: Backdoor Defense with Denoised PoE [56.02753561820302]
言語モデルは、しばしば多様なバックドア攻撃、特にデータ中毒の危険にさらされる。
既存のバックドア防御手法は主に明示的なトリガーによるバックドア攻撃に焦点を当てている。
我々は,様々なバックドア攻撃を防御するために,エンド・ツー・エンドアンサンブルに基づくバックドア防御フレームワークDPoEを提案する。
論文 参考訳(メタデータ) (2023-05-24T08:59:25Z) - Prompt as Triggers for Backdoor Attack: Examining the Vulnerability in
Language Models [41.1058288041033]
本稿では,プロンプトに基づくクリーンラベルバックドア攻撃の新規かつ効率的な方法であるProAttackを提案する。
本手法では, 外部からのトリガーを必要とせず, 汚染試料の正確なラベル付けを保証し, バックドア攻撃のステルス性を向上させる。
論文 参考訳(メタデータ) (2023-05-02T06:19:36Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Kallima: A Clean-label Framework for Textual Backdoor Attacks [25.332731545200808]
マイメシススタイルのバックドアサンプルを合成するための,最初のクリーンラベルフレームワークKallimaを提案する。
我々は,対象クラスに属する入力を逆方向の摂動で修正し,モデルがバックドアトリガに依存するようにした。
論文 参考訳(メタデータ) (2022-06-03T21:44:43Z) - Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger [48.59965356276387]
本稿では,テキストバックドア攻撃の引き金として構文構造を用いることを提案する。
我々は、トリガーベースアタック法が同等のアタック性能を達成できることを示すため、広範囲な実験を行った。
また,本研究の結果から,テキストバックドア攻撃の重篤さと有害性も明らかとなった。
論文 参考訳(メタデータ) (2021-05-26T08:54:19Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。