論文の概要: Scalable Ensemble-based Detection Method against Adversarial Attacks for
speaker verification
- arxiv url: http://arxiv.org/abs/2312.08622v1
- Date: Thu, 14 Dec 2023 03:04:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-16 00:09:23.075312
- Title: Scalable Ensemble-based Detection Method against Adversarial Attacks for
speaker verification
- Title(参考訳): 話者照合のためのスケーラブルアンサンブルに基づく逆攻撃検出法
- Authors: Haibin Wu, Heng-Cheng Kuo, Yu Tsao, Hung-yi Lee
- Abstract要約: 本稿では,一貫した枠組みにおける主流浄化手法を包括的に比較する。
本稿では, 検出のための高度浄化モジュールを組み込んだ, 簡単に追従できるアンサンブル手法を提案する。
- 参考スコア(独自算出の注目度): 73.30974350776636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic speaker verification (ASV) is highly susceptible to adversarial
attacks. Purification modules are usually adopted as a pre-processing to
mitigate adversarial noise. However, they are commonly implemented across
diverse experimental settings, rendering direct comparisons challenging. This
paper comprehensively compares mainstream purification techniques in a unified
framework. We find these methods often face a trade-off between user experience
and security, as they struggle to simultaneously maintain genuine sample
performance and reduce adversarial perturbations. To address this challenge,
some efforts have extended purification modules to encompass detection
capabilities, aiming to alleviate the trade-off. However, advanced purification
modules will always come into the stage to surpass previous detection method.
As a result, we further propose an easy-to-follow ensemble approach that
integrates advanced purification modules for detection, achieving
state-of-the-art (SOTA) performance in countering adversarial noise. Our
ensemble method has great potential due to its compatibility with future
advanced purification techniques.
- Abstract(参考訳): 自動話者照合(asv)は、逆境攻撃の影響を受けやすい。
浄化モジュールは通常、対向ノイズを軽減するための前処理として採用される。
しかし、それらは様々な実験的な設定にまたがって実装され、直接比較するのは難しい。
本稿では,一貫した枠組みにおける主流浄化手法を包括的に比較する。
これらの手法は、実際のサンプル性能の同時維持と敵の摂動の低減に苦慮しているため、ユーザエクスペリエンスとセキュリティのトレードオフに直面することが多い。
この課題に対処するため、一部の取り組みは、トレードオフを軽減することを目的として、検出機能を含む浄化モジュールを拡張した。
しかし、先進的な浄化モジュールは常に段階に入り、従来の検出方法を超える。
その結果, 対向雑音に対するSOTA(State-of-the-art)性能を向上し, 検出のための高度な浄化モジュールを統合した, 追従が容易なアンサンブル手法を提案する。
我々のアンサンブル法は、将来の高度な浄化技術との互換性から大きな可能性を秘めている。
関連論文リスト
- Classifier Guidance Enhances Diffusion-based Adversarial Purification by Preserving Predictive Information [75.36597470578724]
敵の浄化は、敵の攻撃からニューラルネットワークを守るための有望なアプローチの1つである。
分類器決定境界から遠ざかって, 清浄するgUided Purification (COUP)アルゴリズムを提案する。
実験結果から, COUPは強力な攻撃法でより優れた対向的堅牢性が得られることが示された。
論文 参考訳(メタデータ) (2024-08-12T02:48:00Z) - Purify Unlearnable Examples via Rate-Constrained Variational Autoencoders [101.42201747763178]
未学習例(UE)は、正しくラベル付けされたトレーニング例に微妙な修正を加えることで、テストエラーの最大化を目指している。
我々の研究は、効率的な事前学習浄化法を構築するための、新しいゆがみ機構を提供する。
論文 参考訳(メタデータ) (2024-05-02T16:49:25Z) - Adversarial Text Purification: A Large Language Model Approach for
Defense [25.041109219049442]
敵の浄化は、敵の攻撃に対して分類器を保護するための防御機構である。
そこで本稿では,大規模言語モデルの生成能力を生かした,新たな逆文清浄法を提案する。
提案手法は,様々な分類器に対して顕著な性能を示し,攻撃時の精度を平均65%以上向上させる。
論文 参考訳(メタデータ) (2024-02-05T02:36:41Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - NPVForensics: Jointing Non-critical Phonemes and Visemes for Deepfake
Detection [50.33525966541906]
既存のマルチモーダル検出手法は、Deepfakeビデオを公開するために、音声と視覚の不整合をキャプチャする。
NPVForensics と呼ばれる非臨界音素とビセムの相関関係を抽出する新しいディープフェイク検出法を提案する。
我々のモデルは、微調整で下流のDeepfakeデータセットに容易に適応できる。
論文 参考訳(メタデータ) (2023-06-12T06:06:05Z) - A Minimax Approach Against Multi-Armed Adversarial Attacks Detection [31.971443221041174]
多武装の敵攻撃は、最先端の検出器を騙すことに成功している。
本稿では,複数の事前学習型検出器のソフト・確率出力をミニマックス・アプローチで集約する手法を提案する。
我々は,アグリゲーションが,多腕対人攻撃に対する個々の最先端検出器より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-04T18:21:22Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - FADER: Fast Adversarial Example Rejection [19.305796826768425]
近年の防御は, 異なる層表現における正統な訓練試料からの異常な偏差を検出することにより, 対向的堅牢性を向上させることが示されている。
本稿では,検出に基づく手法を高速化する新しい手法であるFADERを紹介する。
実験では,MNISTデータセットの解析値と比較すると,最大73倍の試作機,CIFAR10の最大50倍の試作機について概説した。
論文 参考訳(メタデータ) (2020-10-18T22:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。