論文の概要: Backdoor Attack against Speaker Verification
- arxiv url: http://arxiv.org/abs/2010.11607v3
- Date: Wed, 3 Feb 2021 00:17:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 08:27:19.325375
- Title: Backdoor Attack against Speaker Verification
- Title(参考訳): 話者認証に対するバックドア攻撃
- Authors: Tongqing Zhai, Yiming Li, Ziqi Zhang, Baoyuan Wu, Yong Jiang, Shu-Tao
Xia
- Abstract要約: 学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
- 参考スコア(独自算出の注目度): 86.43395230456339
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Speaker verification has been widely and successfully adopted in many
mission-critical areas for user identification. The training of speaker
verification requires a large amount of data, therefore users usually need to
adopt third-party data ($e.g.$, data from the Internet or third-party data
company). This raises the question of whether adopting untrusted third-party
data can pose a security threat. In this paper, we demonstrate that it is
possible to inject the hidden backdoor for infecting speaker verification
models by poisoning the training data. Specifically, we design a
clustering-based attack scheme where poisoned samples from different clusters
will contain different triggers ($i.e.$, pre-defined utterances), based on our
understanding of verification tasks. The infected models behave normally on
benign samples, while attacker-specified unenrolled triggers will successfully
pass the verification even if the attacker has no information about the
enrolled speaker. We also demonstrate that existing backdoor attacks cannot be
directly adopted in attacking speaker verification. Our approach not only
provides a new perspective for designing novel attacks, but also serves as a
strong baseline for improving the robustness of verification methods. The code
for reproducing main results is available at
\url{https://github.com/zhaitongqing233/Backdoor-attack-against-speaker-verification}.
- Abstract(参考訳): 話者認証は多くのミッションクリティカルな領域でユーザ識別に成功している。
話者認証のトレーニングには大量のデータが必要であるため、ユーザは通常、サードパーティのデータ(インターネットやサードパーティのデータ会社からの$など)を採用する必要がある。
これは、信頼できないサードパーティのデータを採用することがセキュリティの脅威となるかどうかという疑問を提起する。
本稿では,学習データを汚染することにより,話者照合モデルに感染するための隠れたバックドアを注入できることを実証する。
具体的には、検証タスクの理解に基づいて、異なるクラスタからの有毒なサンプルが異なるトリガ(例えば、事前定義された発話)を含むクラスタリングベースの攻撃スキームを設計する。
感染したモデルは、通常良質なサンプルで振る舞うが、攻撃者が指定した未登録のトリガーは、たとえ攻撃者が登録された話者に関する情報を持っていなくても、検証に合格する。
また,既存のバックドア攻撃は話者認証攻撃において直接適用できないことを示す。
提案手法は,新たな攻撃設計の新たな視点を提供するだけでなく,検証手法の堅牢性向上のための強力なベースラインとしても機能する。
主な結果を再現するコードは \url{https://github.com/zhaitongqing233/backdoor-attack-against-speaker-verification} で入手できる。
関連論文リスト
- Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Fake the Real: Backdoor Attack on Deep Speech Classification via Voice
Conversion [14.264424889358208]
本研究は,音声変換に基づくサンプル特異的トリガを用いたバックドアアタックを探索する。
具体的には、事前に訓練された音声変換モデルを用いてトリガーを生成する。
論文 参考訳(メタデータ) (2023-06-28T02:19:31Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Detecting Backdoors in Deep Text Classifiers [43.36440869257781]
本稿では,テキスト分類モデルに対するバックドア攻撃を一般化する,最初の堅牢な防御機構を提案する。
我々の技術は、データ中毒や重毒など、最先端のバックドア攻撃に対する防御に極めて正確です。
論文 参考訳(メタデータ) (2022-10-11T07:48:03Z) - Kallima: A Clean-label Framework for Textual Backdoor Attacks [25.332731545200808]
マイメシススタイルのバックドアサンプルを合成するための,最初のクリーンラベルフレームワークKallimaを提案する。
我々は,対象クラスに属する入力を逆方向の摂動で修正し,モデルがバックドアトリガに依存するようにした。
論文 参考訳(メタデータ) (2022-06-03T21:44:43Z) - Narcissus: A Practical Clean-Label Backdoor Attack with Limited
Information [22.98039177091884]
クリーンラベル」バックドア攻撃には、トレーニングセット全体の知識が必要である。
本稿では,対象クラスの代表例の知識のみに基づいて,クリーンラベルバックドア攻撃をマウントするアルゴリズムを提案する。
私たちの攻撃は、物理的な世界にトリガーが存在する場合でも、データセットやモデル間でうまく機能します。
論文 参考訳(メタデータ) (2022-04-11T16:58:04Z) - Sleeper Agent: Scalable Hidden Trigger Backdoors for Neural Networks
Trained from Scratch [99.90716010490625]
バックドア攻撃者は、トレーニングデータを改ざんして、そのデータに基づいてトレーニングされたモデルに脆弱性を埋め込む。
この脆弱性は、モデル入力に"トリガー"を配置することで、推論時にアクティベートされる。
我々は,工芸過程において,勾配マッチング,データ選択,ターゲットモデル再トレーニングを利用した新しい隠れトリガ攻撃,Sleeper Agentを開発した。
論文 参考訳(メタデータ) (2021-06-16T17:09:55Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。