論文の概要: Going In Style: Audio Backdoors Through Stylistic Transformations
- arxiv url: http://arxiv.org/abs/2211.03117v1
- Date: Sun, 6 Nov 2022 13:39:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 19:16:18.226974
- Title: Going In Style: Audio Backdoors Through Stylistic Transformations
- Title(参考訳): Going In Style:ステレオ変換によるオーディオバックドア
- Authors: Stefanos Koffas, Luca Pajola, Stjepan Picek, Mauro Conti
- Abstract要約: バックドア攻撃は、テスト時にターゲットの誤分類を可能にするために、被害者のディープラーニングモデルにトリガーを配置する。
我々は,コーラスやゲインなどの音声変換に基づく最初のスタイリスティックなバックドアアタックであるJingleBackを提案する。
音声分類タスクにおいて444のモデルを用いて,音声のスタイル的トリガの実現可能性を確認し,96%の攻撃成功を得た。
- 参考スコア(独自算出の注目度): 23.998665543632114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A backdoor attack places triggers in victims' deep learning models to enable
a targeted misclassification at testing time. In general, triggers are fixed
artifacts attached to samples, making backdoor attacks easy to spot. Only
recently, a new trigger generation harder to detect has been proposed: the
stylistic triggers that apply stylistic transformations to the input samples
(e.g., a specific writing style).
Currently, stylistic backdoor literature lacks a proper formalization of the
attack, which is established in this paper. Moreover, most studies of stylistic
triggers focus on text and images, while there is no understanding of whether
they can work in sound. This work fills this gap. We propose JingleBack, the
first stylistic backdoor attack based on audio transformations such as chorus
and gain. Using 444 models in a speech classification task, we confirm the
feasibility of stylistic triggers in audio, achieving 96% attack success.
- Abstract(参考訳): バックドア攻撃は、被害者のディープラーニングモデルにトリガーを配置し、テスト時にターゲットとする誤分類を可能にする。
一般的に、トリガーはサンプルに固定されたアーティファクトであり、バックドア攻撃を簡単に発見できる。
つい最近になって、入力サンプル(例えば、特定の書き込みスタイル)にスタイリスティックな変換を適用するスタイリスティックなトリガーが提案された。
現在,本論文では,形式的なバックドア文学は攻撃の適切な形式化を欠いている。
さらに、スタイリスティックなトリガーのほとんどの研究はテキストと画像に焦点を当てているが、音で機能するかどうかは理解されていない。
この仕事はこのギャップを埋める。
我々は,コーラスやゲインなどの音声変換に基づく最初のスタイリスティックなバックドア攻撃であるJingleBackを提案する。
音声分類タスクにおける444モデルを用いて,音声におけるスタイル的トリガの実現可能性を確認し,攻撃成功率96%を得た。
関連論文リスト
- NoiseAttack: An Evasive Sample-Specific Multi-Targeted Backdoor Attack Through White Gaussian Noise [0.19820694575112383]
ディープラーニング開発にサードパーティのデータを使用する場合、バックドア攻撃は重大な脅威となる。
我々は,新しいサンプル特異的なマルチターゲットバックドアアタック,すなわちNossAttackを紹介した。
この作業は、複数のターゲットクラスを生成する目的でビジョンバックドアアタックを起動する、この種の最初のものだ。
論文 参考訳(メタデータ) (2024-09-03T19:24:46Z) - Towards Evaluating the Robustness of Automatic Speech Recognition Systems via Audio Style Transfer [8.948537516293328]
本稿では,ユーザ認識スタイルの転送に基づく自動音声認識(ASR)システムに対する攻撃を提案する。
提案手法は,ユーザカスタマイズスタイルの必要性を満たすとともに,攻撃の82%の成功率を達成することができる。
論文 参考訳(メタデータ) (2024-05-15T16:05:24Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Breaking Speaker Recognition with PaddingBack [18.219474338850787]
近年の研究では、音声バックドアは画像バックドアと同様に、変換をトリガーとして利用できることが示されている。
パディングバック(PaddingBack)は悪質な操作を利用して有毒なサンプルを生成する無音バックドアアタックである。
論文 参考訳(メタデータ) (2023-08-08T10:36:44Z) - Towards Stealthy Backdoor Attacks against Speech Recognition via
Elements of Sound [9.24846124692153]
ディープニューラルネットワーク(Deep Neural Network, DNN)は、音声認識の様々な応用に広く採用され、導入されている。
本稿では,音声認識に対する毒のみのバックドア攻撃について再検討する。
我々は音(例えば、ピッチと音色)の要素を利用して、よりステルスで効果的な毒のみのバックドア攻撃を設計する。
論文 参考訳(メタデータ) (2023-07-17T02:58:25Z) - Fake the Real: Backdoor Attack on Deep Speech Classification via Voice
Conversion [14.264424889358208]
本研究は,音声変換に基づくサンプル特異的トリガを用いたバックドアアタックを探索する。
具体的には、事前に訓練された音声変換モデルを用いてトリガーを生成する。
論文 参考訳(メタデータ) (2023-06-28T02:19:31Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger [48.59965356276387]
本稿では,テキストバックドア攻撃の引き金として構文構造を用いることを提案する。
我々は、トリガーベースアタック法が同等のアタック性能を達成できることを示すため、広範囲な実験を行った。
また,本研究の結果から,テキストバックドア攻撃の重篤さと有害性も明らかとなった。
論文 参考訳(メタデータ) (2021-05-26T08:54:19Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Cortical Features for Defense Against Adversarial Audio Attacks [55.61885805423492]
本稿では,聴覚野の計算モデルを用いて,音声に対する敵対的攻撃に対する防御手法を提案する。
また,大脳皮質の特徴は,普遍的な敵の例に対する防御に有効であることを示す。
論文 参考訳(メタデータ) (2021-01-30T21:21:46Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。