論文の概要: SUAD: Solid-Channel Ultrasound Injection Attack and Defense to Voice Assistants
- arxiv url: http://arxiv.org/abs/2508.02116v1
- Date: Mon, 04 Aug 2025 06:51:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 13:38:08.400325
- Title: SUAD: Solid-Channel Ultrasound Injection Attack and Defense to Voice Assistants
- Title(参考訳): SUAD:ソリッドチャネルの超音波注入とボイスアシスタントへの防御
- Authors: Chao Liu, Zhezheng Zhu, Hao Chen, Zhe Chen, Kaiwen Guo, Penghao Wang, Jun Luo,
- Abstract要約: 我々は,ソリッドチャネルを介して,長距離,クロスバリア,干渉のない難聴音声攻撃を行うnameAttackを提案する。
我々はまた、難聴音声攻撃を阻止するために超音波摂動信号を用いたユニバーサルディフェンスであるSUAD Defenseを提案する。
6台のスマートフォンでの実験では、SUADアタックは89.8%以上のアクティベーション成功率、SUADディフェンスは98%以上のIVAをブロックしている。
- 参考スコア(独自算出の注目度): 13.659193709119407
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As a versatile AI application, voice assistants (VAs) have become increasingly popular, but are vulnerable to security threats. Attackers have proposed various inaudible attacks, but are limited by cost, distance, or LoS. Therefore, we propose \name~Attack, a long-range, cross-barrier, and interference-free inaudible voice attack via solid channels. We begin by thoroughly analyzing the dispersion effect in solid channels, revealing its unique impact on signal propagation. To avoid distortions in voice commands, we design a modular command generation model that parameterizes attack distance, victim audio, and medium dispersion features to adapt to variations in the solid-channel state. Additionally, we propose SUAD Defense, a universal defense that uses ultrasonic perturbation signals to block inaudible voice attacks (IVAs) without impacting normal speech. Since the attack can occur at arbitrary frequencies and times, we propose a training method that randomizes both time and frequency to generate perturbation signals that break ultrasonic commands. Notably, the perturbation signal is modulated to an inaudible frequency without affecting the functionality of voice commands for VAs. Experiments on six smartphones have shown that SUAD Attack achieves activation success rates above 89.8% and SUAD Defense blocks IVAs with success rates exceeding 98%.
- Abstract(参考訳): 汎用AIアプリケーションとして、音声アシスタント(VA)はますます普及しているが、セキュリティ上の脅威に弱い。
攻撃者は様々な難解な攻撃を提案しているが、コスト、距離、またはLOSによって制限されている。
そこで我々は,長距離,クロスバリア,干渉のない難聴音声アタックである「name~Attack」を提案する。
まず、固体チャネルにおける分散効果を徹底的に分析し、信号伝搬に特有の影響を明らかにする。
音声コマンドの歪みを避けるために,攻撃距離,被害者音声,中分散特性をパラメータ化して,固体チャネル状態の変動に適応するモジュール型コマンド生成モデルを設計する。
また,通常の音声に影響を与えずに,難聴音声攻撃(IVAs)をブロックするために超音波摂動信号を用いたユニバーサルディフェンスであるSUAD Defenseを提案する。
攻撃は任意の周波数と時間で起こりうるので、超音波コマンドを破る摂動信号を生成するために時間と周波数の両方をランダム化する訓練手法を提案する。
特に、摂動信号はVAの音声コマンドの機能に影響を与えることなく、難聴周波数に変調される。
6台のスマートフォンでの実験では、SUADアタックは89.8%以上のアクティベーション成功率、SUADディフェンスは98%以上のIVAをブロックしている。
関連論文リスト
- RoVo: Robust Voice Protection Against Unauthorized Speech Synthesis with Embedding-Level Perturbations [5.777711921986914]
音声信号の高次元埋め込みベクトルに対向的摂動を注入する新しい能動的防御手法であるRoVoを提案する。
RoVoは音声合成攻撃を効果的に防御し、音声強調モデルに強い抵抗を与える。
ユーザスタディによると、RoVoは保護された音声の自然性とユーザビリティの両方を保っている。
論文 参考訳(メタデータ) (2025-05-19T04:14:58Z) - Mitigating Backdoor Triggered and Targeted Data Poisoning Attacks in Voice Authentication Systems [4.856070170902535]
本稿では,BTAとTDPAの両方を効果的に扱う統一防衛フレームワークを提案する。
筆者らのフレームワークは,ほぼリアルタイムにピッチアップとバックドアアタックを隠蔽する周波数集中検出機構を統合している。
我々の枠組みはTDPAの認識において、攻撃成功率を最大5~15%まで低下させ、リコールレートを最大9~5%まで維持する。
論文 参考訳(メタデータ) (2025-05-06T11:52:12Z) - Deep Active Speech Cancellation with Mamba-Masking Network [62.73250985838971]
アクティブ音声キャンセラ(ASC)のための新しい深層学習ネットワークを提案する。
提案したMamba-Maskingアーキテクチャは、符号化された参照信号と直接対話するマスキング機構を導入する。
実験の結果、ANCシナリオでは7.2dB、ASCでは6.2dBの改善が達成された。
論文 参考訳(メタデータ) (2025-02-03T09:22:26Z) - NUANCE: Near Ultrasound Attack On Networked Communication Environments [0.0]
本研究では, 近距離超音波トロイの木馬を用いたAmazon Alexa音声サービスにおける難聴攻撃ベクトルについて検討した。
この研究は、各攻撃ベクトルをMITRE ATT&CK行列から戦術またはテクニックにマッピングする。
実験では、攻撃の有効性を評価するために50個の近超音波を生成し、調査した。
論文 参考訳(メタデータ) (2023-04-25T23:28:46Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - Push-Pull: Characterizing the Adversarial Robustness for Audio-Visual
Active Speaker Detection [88.74863771919445]
我々は、音声のみ、視覚のみ、および音声-視覚的敵対攻撃下でのAVASDモデルの脆弱性を明らかにする。
また,攻撃者が現実的な相手を見つけるのを困難にするため,新たな音声・視覚的相互作用損失(AVIL)を提案する。
論文 参考訳(メタデータ) (2022-10-03T08:10:12Z) - Perceptual-based deep-learning denoiser as a defense against adversarial
attacks on ASR systems [26.519207339530478]
敵対的攻撃は、元の音声信号に小さな摂動を加えることで、誤分類を強制しようとする。
本稿では,ASRパイプラインのプリプロセッサとしてニューラルネットベースのデノイザを用いることで,この問題に対処することを提案する。
その結果,知覚的モチベーションのある損失関数を用いて難聴者の訓練を行うことで,対向的ロバスト性が向上することが判明した。
論文 参考訳(メタデータ) (2021-07-12T07:00:06Z) - Towards Robust Speech-to-Text Adversarial Attack [78.5097679815944]
本稿では,DeepSpeech,Kaldi,Lingvoなど,最先端の音声テキストシステムに対する新たな逆アルゴリズムを提案する。
本手法は, 逆最適化定式化の従来の歪み条件の拡張を開発することに基づいている。
元のサンプルと反対のサンプルの分布の差を測定するこの測定値の最小化は、正統な音声記録のサブスペースに非常に近い作成信号に寄与する。
論文 参考訳(メタデータ) (2021-03-15T01:51:41Z) - Cortical Features for Defense Against Adversarial Audio Attacks [55.61885805423492]
本稿では,聴覚野の計算モデルを用いて,音声に対する敵対的攻撃に対する防御手法を提案する。
また,大脳皮質の特徴は,普遍的な敵の例に対する防御に有効であることを示す。
論文 参考訳(メタデータ) (2021-01-30T21:21:46Z) - WaveTransform: Crafting Adversarial Examples via Input Decomposition [69.01794414018603]
本稿では,低周波サブバンドと高周波サブバンドに対応する逆雑音を生成するWaveTransformを紹介する。
実験により,提案攻撃は防衛アルゴリズムに対して有効であり,CNN間での転送も可能であることが示された。
論文 参考訳(メタデータ) (2020-10-29T17:16:59Z) - Class-Conditional Defense GAN Against End-to-End Speech Attacks [82.21746840893658]
本稿では,DeepSpeech や Lingvo といった先進的な音声テキストシステムを騙すために開発された,エンドツーエンドの敵対攻撃に対する新しいアプローチを提案する。
従来の防御手法とは異なり、提案手法は入力信号のオートエンコードのような低レベル変換を直接利用しない。
我々の防衛GANは、単語誤り率と文レベルの認識精度において、従来の防衛アルゴリズムよりもかなり優れています。
論文 参考訳(メタデータ) (2020-10-22T00:02:02Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Detecting Audio Attacks on ASR Systems with Dropout Uncertainty [40.9172128924305]
我々の防衛は、最適化された摂動と周波数マスキングによって生成された攻撃を検出することができることを示す。
我々は、MozillaのCommonVoiceデータセット、UrbanSoundデータセット、およびLibriSpeechデータセットの抜粋に対する防御をテストする。
論文 参考訳(メタデータ) (2020-06-02T19:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。