論文の概要: Defending against Adversarial Audio via Diffusion Model
- arxiv url: http://arxiv.org/abs/2303.01507v1
- Date: Thu, 2 Mar 2023 07:15:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 17:23:19.850663
- Title: Defending against Adversarial Audio via Diffusion Model
- Title(参考訳): 拡散モデルによる対立音声に対する防御
- Authors: Shutong Wu, Jiongxiao Wang, Wei Ping, Weili Nie and Chaowei Xiao
- Abstract要約: 対向音の例は、音響システムに異常な振る舞いを引き起こす可能性がある。
近年,商業音響システムにおいて深層学習モデルが広く用いられている。
市販拡散モデルを用いた音響システムのための対向浄化型ディフェンスパイプラインAudioPureを提案する。
- 参考スコア(独自算出の注目度): 18.792523775685456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models have been widely used in commercial acoustic systems in
recent years. However, adversarial audio examples can cause abnormal behaviors
for those acoustic systems, while being hard for humans to perceive. Various
methods, such as transformation-based defenses and adversarial training, have
been proposed to protect acoustic systems from adversarial attacks, but they
are less effective against adaptive attacks. Furthermore, directly applying the
methods from the image domain can lead to suboptimal results because of the
unique properties of audio data. In this paper, we propose an adversarial
purification-based defense pipeline, AudioPure, for acoustic systems via
off-the-shelf diffusion models. Taking advantage of the strong generation
ability of diffusion models, AudioPure first adds a small amount of noise to
the adversarial audio and then runs the reverse sampling step to purify the
noisy audio and recover clean audio. AudioPure is a plug-and-play method that
can be directly applied to any pretrained classifier without any fine-tuning or
re-training. We conduct extensive experiments on speech command recognition
task to evaluate the robustness of AudioPure. Our method is effective against
diverse adversarial attacks (e.g. $\mathcal{L}_2$ or
$\mathcal{L}_\infty$-norm). It outperforms the existing methods under both
strong adaptive white-box and black-box attacks bounded by $\mathcal{L}_2$ or
$\mathcal{L}_\infty$-norm (up to +20\% in robust accuracy). Besides, we also
evaluate the certified robustness for perturbations bounded by
$\mathcal{L}_2$-norm via randomized smoothing. Our pipeline achieves a higher
certified accuracy than baselines.
- Abstract(参考訳): 近年,商業音響システムにおいて深層学習モデルが広く用いられている。
しかし、逆向きの音声サンプルは、人間の知覚が困難である一方で、これらの音響システムの異常な振る舞いを引き起こす可能性がある。
対人攻撃から音響システムを保護するために, 変換型防御や対人訓練などの様々な手法が提案されているが, 適応攻撃に対して効果は低い。
さらに,この手法を画像領域から直接適用すると,音声データの特異な特性のため,最適以下の結果が得られる。
本稿では,市販の拡散モデルを用いた音響システムのための,対向的浄化に基づく防御パイプラインであるaudiopureを提案する。
拡散モデルの強力な生成能力を利用して、audiopureはまず、敵オーディオに少量のノイズを追加し、その後、逆サンプリングステップを実行してノイズを浄化し、クリーンオーディオを回復する。
audiopureはプラグ・アンド・プレイ方式で、事前学習された分類器に直接適用できる。
音声のロバスト性を評価するために,音声コマンド認識タスクを広範囲に実験した。
本手法は,多様な攻撃(例えば $\mathcal{L}_2$ や $\mathcal{L}_\infty$-norm など)に対して有効である。
これは、$\mathcal{l}_2$または$\mathcal{l}_\infty$-norm(ロバストな精度では最大+20\%)で境界付けられた、強力な適応ホワイトボックスとブラックボックス攻撃の両方の下で既存のメソッドを上回る。
さらに,ランダム化平滑化により,$\mathcal{l}_2$-norm で有界な摂動に対するロバスト性も評価した。
私たちのパイプラインは、ベースラインよりも高い認証精度を達成します。
関連論文リスト
- Classifier Guidance Enhances Diffusion-based Adversarial Purification by Preserving Predictive Information [75.36597470578724]
敵の浄化は、敵の攻撃からニューラルネットワークを守るための有望なアプローチの1つである。
分類器決定境界から遠ざかって, 清浄するgUided Purification (COUP)アルゴリズムを提案する。
実験結果から, COUPは強力な攻撃法でより優れた対向的堅牢性が得られることが示された。
論文 参考訳(メタデータ) (2024-08-12T02:48:00Z) - Purify Unlearnable Examples via Rate-Constrained Variational Autoencoders [101.42201747763178]
未学習例(UE)は、正しくラベル付けされたトレーニング例に微妙な修正を加えることで、テストエラーの最大化を目指している。
我々の研究は、効率的な事前学習浄化法を構築するための、新しいゆがみ機構を提供する。
論文 参考訳(メタデータ) (2024-05-02T16:49:25Z) - Adversarial Fine-tuning using Generated Respiratory Sound to Address
Class Imbalance [1.3686993145787067]
本稿では,条件付きニューラルボコーダとして音声拡散モデルを用いて,不均衡な呼吸音データを増やすための簡単なアプローチを提案する。
また, 合成音と実呼吸音の特徴を整合させ, 呼吸音の分類性能を向上させるために, 簡易かつ効果的な対向微調整法を実証した。
論文 参考訳(メタデータ) (2023-11-11T05:02:54Z) - High-Fidelity Speech Synthesis with Minimal Supervision: All Using
Diffusion Models [56.00939852727501]
最小教師付き音声合成は、2種類の離散音声表現を組み合わせることでTSを分離する。
非自己回帰フレームワークは、制御可能性を高め、持続拡散モデルは、多様化された韻律表現を可能にする。
論文 参考訳(メタデータ) (2023-09-27T09:27:03Z) - BEATs: Audio Pre-Training with Acoustic Tokenizers [77.8510930885778]
自己教師付き学習(SSL)は、ここ数年、言語、ビジョン、スピーチ、オーディオドメインで目撃されてきた。
本稿では、音声変換器から双方向表現を学習するための反復型オーディオ事前学習フレームワークBEATを提案する。
最初のイテレーションでは、ランダムプロジェクションを音響トークンとして使用し、マスクとラベル予測の方法でオーディオSSLモデルをトレーニングする。
そこで,本研究では,事前学習あるいは微調整した音声SSLモデルから意味知識を抽出することにより,次のイテレーションのための音響トークン化装置を訓練する。
論文 参考訳(メタデータ) (2022-12-18T10:41:55Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Data Augmentation based Consistency Contrastive Pre-training for
Automatic Speech Recognition [18.303072203996347]
自動音声認識(ASR)タスクにおいて、自己教師付き音響事前学習は驚くべき結果を得た。
音響事前学習法の多くは、コントラスト学習を用いて音響表現を学習する。
本稿では,音声事前学習のためのデータ拡張を利用して,新しいコントラスト学習法(CCL)を設計する。
論文 参考訳(メタデータ) (2021-12-23T13:23:17Z) - On the Exploitability of Audio Machine Learning Pipelines to
Surreptitious Adversarial Examples [19.433014444284595]
我々は、人間とパイプラインの制御を回避できる新たな攻撃のクラスである、余計な敵の例を紹介した。
この攻撃は、従来の非受容性を目的とした攻撃よりも過剰なオーディオサンプルを生成する。
論文 参考訳(メタデータ) (2021-08-03T16:21:08Z) - Audio Attacks and Defenses against AED Systems - A Practical Study [2.365611283869544]
我々は,ディープラーニングに基づく音声イベント検出システム(AED)を,敵の例による回避攻撃に対して評価する。
本研究では,背景雑音と白色雑音という2つの異なる種類のノイズを用いて,敵対者が検出を避けるために使用する音声対向例を生成する。
音声入力に適用した場合,これらの対策が有効であることを示す。
論文 参考訳(メタデータ) (2021-06-14T13:42:49Z) - Adversarial attacks on audio source separation [26.717340178640498]
音源分離問題に対する様々な逆攻撃手法を再構成する。
そこで本研究では,非知覚的対向雑音を得るための簡易かつ効果的な正則化法を提案する。
また,ブラックボックス攻撃に対するソース分離モデルの堅牢性を示す。
論文 参考訳(メタデータ) (2020-10-07T05:02:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。