論文の概要: AudioFool: Fast, Universal and synchronization-free Cross-Domain Attack
on Speech Recognition
- arxiv url: http://arxiv.org/abs/2309.11462v1
- Date: Wed, 20 Sep 2023 16:59:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 15:32:57.790498
- Title: AudioFool: Fast, Universal and synchronization-free Cross-Domain Attack
on Speech Recognition
- Title(参考訳): AudioFool: 音声認識における高速, ユニバーサル, 同期不要なクロスドメイン攻撃
- Authors: Mohamad Fakih, Rouwaida Kanj, Fadi Kurdahi, Mohammed E. Fouda
- Abstract要約: オーバー・ザ・エア(OTA)モデルと互換性のあるロバスト攻撃に必要な特性について検討する。
任意の特性を持つ攻撃を発生させる手法を設計する。
本手法を標準キーワード分類タスクで評価し,OTAで解析する。
- 参考スコア(独自算出の注目度): 0.9913418444556487
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic Speech Recognition systems have been shown to be vulnerable to
adversarial attacks that manipulate the command executed on the device. Recent
research has focused on exploring methods to create such attacks, however, some
issues relating to Over-The-Air (OTA) attacks have not been properly addressed.
In our work, we examine the needed properties of robust attacks compatible with
the OTA model, and we design a method of generating attacks with arbitrary such
desired properties, namely the invariance to synchronization, and the
robustness to filtering: this allows a Denial-of-Service (DoS) attack against
ASR systems. We achieve these characteristics by constructing attacks in a
modified frequency domain through an inverse Fourier transform. We evaluate our
method on standard keyword classification tasks and analyze it in OTA, and we
analyze the properties of the cross-domain attacks to explain the efficiency of
the approach.
- Abstract(参考訳): 自動音声認識システムは、デバイス上で実行されるコマンドを操作する敵攻撃に対して脆弱であることが示されている。
近年の研究では、このような攻撃を発生させる方法を模索しているが、OTA(Over-The-Air)攻撃に関するいくつかの問題が適切に対処されていない。
本研究では,OTAモデルと互換性のあるロバストアタックの必要な特性について検討し,任意の特性,すなわち同期の不変性,フィルタリングのロバスト性を用いてアタックを生成する手法を設計する。
これらの特性を逆フーリエ変換により修正周波数領域にアタックを構築することで達成する。
我々は,標準的なキーワード分類タスクについて評価し,OTAで解析し,ドメイン間攻撃の特性を分析し,その効率性を説明する。
関連論文リスト
- Filtered Randomized Smoothing: A New Defense for Robust Modulation Classification [16.974803642923465]
我々は、任意の攻撃に対して証明可能な防御を提供するロバストな変調分類器を設計する問題について検討する。
スペクトルフィルタリングとランダムな平滑化を組み合わせた新しい防御法であるフィルタランダム化平滑化(FRS)を提案する。
FRSは攻撃信号と良性信号の両方の精度において,ATやRSを含む既存の防御よりも有意に優れていた。
論文 参考訳(メタデータ) (2024-10-08T20:17:25Z) - Improving the Robustness of Object Detection and Classification AI models against Adversarial Patch Attacks [2.963101656293054]
我々は攻撃手法を解析し、堅牢な防御手法を提案する。
我々は,物体形状,テクスチャ,位置を利用する逆パッチ攻撃を用いて,モデル信頼度を20%以上下げることに成功した。
敵攻撃にも拘わらず,本手法はモデルレジリエンスを著しく向上させ,高精度かつ信頼性の高いローカライゼーションを実現している。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - PuriDefense: Randomized Local Implicit Adversarial Purification for
Defending Black-box Query-based Attacks [15.842917276255141]
ブラックボックスクエリベースの攻撃は機械学習・アズ・ア・サービス(ML)システムに脅威を与える。
低レベルの推論コストで軽量な浄化モデルのアンサンブルでランダムなパッチワイズ処理を施した効率的な防御機構であるPuriDefenseを提案する。
我々の理論的分析は、ランダム性を浄化に組み込むことで、クエリベースの攻撃の収束を遅くすることを示唆している。
論文 参考訳(メタデータ) (2024-01-19T09:54:23Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Sequential Randomized Smoothing for Adversarially Robust Speech
Recognition [26.96883887938093]
我々の最強の防御力は、難聴のノイズを使用する全ての攻撃に対して堅牢であり、非常に高い歪みでしか破壊できないことを示す。
本稿では, 摂動に頑健なASRモデルを設計するために, 拡張やROVER投票といった音声固有のツールを活用することで, これらの課題を克服する。
論文 参考訳(メタデータ) (2021-11-05T21:51:40Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - WaveGuard: Understanding and Mitigating Audio Adversarial Examples [12.010555227327743]
本稿では,ASRシステムに対する敵入力を検出するフレームワークであるWaveGuardを紹介する。
本フレームワークは,音声変換機能を組み込んで原音声と変換音声のasr転写を解析し,逆入力を検出する。
論文 参考訳(メタデータ) (2021-03-04T21:44:37Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。