論文の概要: Mitigating Backdoor Triggered and Targeted Data Poisoning Attacks in Voice Authentication Systems
- arxiv url: http://arxiv.org/abs/2505.03455v1
- Date: Tue, 06 May 2025 11:52:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.358404
- Title: Mitigating Backdoor Triggered and Targeted Data Poisoning Attacks in Voice Authentication Systems
- Title(参考訳): 音声認証システムにおけるバックドアトリガーとターゲットデータによる攻撃の軽減
- Authors: Alireza Mohammadi, Keshav Sood, Dhananjay Thiruvady, Asef Nazari,
- Abstract要約: 本稿では,BTAとTDPAの両方を効果的に扱う統一防衛フレームワークを提案する。
筆者らのフレームワークは,ほぼリアルタイムにピッチアップとバックドアアタックを隠蔽する周波数集中検出機構を統合している。
我々の枠組みはTDPAの認識において、攻撃成功率を最大5~15%まで低下させ、リコールレートを最大9~5%まで維持する。
- 参考スコア(独自算出の注目度): 4.856070170902535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Voice authentication systems remain susceptible to two major threats: backdoor triggered attacks and targeted data poisoning attacks. This dual vulnerability is critical because conventional solutions typically address each threat type separately, leaving systems exposed to adversaries who can exploit both attacks simultaneously. We propose a unified defense framework that effectively addresses both BTA and TDPA. Our framework integrates a frequency focused detection mechanism that flags covert pitch boosting and sound masking backdoor attacks in near real time, followed by a convolutional neural network that addresses TDPA. This dual layered defense approach utilizes multidimensional acoustic features to isolate anomalous signals without requiring costly model retraining. In particular, our PBSM detection mechanism can seamlessly integrate into existing voice authentication pipelines and scale effectively for large scale deployments. Experimental results on benchmark datasets and their compression with the state of the art algorithm demonstrate that our PBSM detection mechanism outperforms the state of the art. Our framework reduces attack success rates to as low as five to fifteen percent while maintaining a recall rate of up to ninety five percent in recognizing TDPA.
- Abstract(参考訳): ボイス認証システムは、バックドアによる攻撃と、ターゲットとするデータ中毒攻撃の2つの大きな脅威の影響を受け続けている。
この二重脆弱性は、通常、従来のソリューションがそれぞれの脅威タイプに別々に対処し、両方の攻撃を同時に活用できる敵にシステムを公開するため、非常に重要である。
本稿では,BTAとTDPAの両方を効果的に扱う統一防衛フレームワークを提案する。
本フレームワークでは,TDPAに対処する畳み込みニューラルネットワークを用いて,隠れたピッチの押し上げと音マスキングのバックドア攻撃をほぼリアルタイムでフラグ付けする周波数集中検出機構を統合した。
この二重層防御手法は、多次元音響特性を利用して、コストのかかるモデル再訓練を必要とせずに異常信号を分離する。
特に,我々のPBSM検出機構は,既存の音声認識パイプラインにシームレスに統合し,大規模展開に効果的にスケールすることができる。
ベンチマークデータセットと最先端アルゴリズムによる圧縮実験の結果,PBSM検出機構が最先端よりも優れていることが示された。
我々の枠組みはTDPAの認識において、攻撃成功率を最大5~15%まで低下させ、リコールレートを最大9~5%まで維持する。
関連論文リスト
- A Channel-Triggered Backdoor Attack on Wireless Semantic Image Reconstruction [12.368852420763782]
本稿では,新しい攻撃パラダイムであるChannel-Triggered Backdoor Attack (CT-BA)を提案する。
我々は、異なる色相分布のチャネルゲインや、異なるパワースペクトル密度のチャネルノイズを電位トリガとして利用する。
我々は,3つのデータセットにまたがるジョイントソース・チャネル符号化(JSCC)モデルにおいて,CT-BAのロバスト性を評価する。
論文 参考訳(メタデータ) (2025-03-31T09:17:10Z) - Mind the Gap: Detecting Black-box Adversarial Attacks in the Making through Query Update Analysis [3.795071937009966]
アドリアックは機械学習(ML)モデルの整合性を損なう可能性がある。
本稿では,逆ノイズインスタンスが生成されているかどうかを検出するフレームワークを提案する。
適応攻撃を含む8つの最先端攻撃に対するアプローチを評価する。
論文 参考訳(メタデータ) (2025-03-04T20:25:12Z) - GCP: Guarded Collaborative Perception with Spatial-Temporal Aware Malicious Agent Detection [11.336965062177722]
協調的知覚は、悪意のあるエージェントからの敵対的なメッセージ攻撃に対して脆弱である。
本稿では,既存の単発外乱検出手法を損なう新しい盲検領域混乱(BAC)攻撃を明らかにする。
本稿では、空間的時間的認識による悪意のあるエージェント検出に基づくガード付き協調認識フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-05T06:03:26Z) - Let the Noise Speak: Harnessing Noise for a Unified Defense Against Adversarial and Backdoor Attacks [31.291700348439175]
機械学習に対する悪意のあるデータ操作攻撃は、安全クリティカルなアプリケーションにおける信頼性を損なう。
再建型侵入検知システムであるNoiSecを提案する。
NoiSecは、テスト入力からノイズを取り除き、ノイズから基礎となる特徴を抽出し、それらを活用して、システマティックな悪意のある操作を認識する。
論文 参考訳(メタデータ) (2024-06-18T21:44:51Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Adversarial Attacks and Mitigation for Anomaly Detectors of
Cyber-Physical Systems [6.417955560857806]
本研究では,CPSの異常検出器とルールチェッカーを同時に回避する対向攻撃を提案する。
既存の勾配に基づくアプローチにインスパイアされた我々の敵攻撃は、センサーとアクチュエーターの値にノイズを発生させ、遺伝的アルゴリズムを使って後者を最適化する。
実世界の2つの重要なインフラテストベッドに対するアプローチを実装し、検出器の分類精度を平均50%以上下げることに成功した。
論文 参考訳(メタデータ) (2021-05-22T12:19:03Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。