論文の概要: Cortical Features for Defense Against Adversarial Audio Attacks
- arxiv url: http://arxiv.org/abs/2102.00313v1
- Date: Sat, 30 Jan 2021 21:21:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-04 09:59:49.659431
- Title: Cortical Features for Defense Against Adversarial Audio Attacks
- Title(参考訳): 逆オーディオ攻撃に対する防御のための皮質的特徴
- Authors: Ilya Kavalerov, Frank Zheng, Wojciech Czaja, Rama Chellappa
- Abstract要約: 本稿では,聴覚野の計算モデルを用いて,音声に対する敵対的攻撃に対する防御手法を提案する。
また,大脳皮質の特徴は,普遍的な敵の例に対する防御に有効であることを示す。
- 参考スコア(独自算出の注目度): 55.61885805423492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose using a computational model of the auditory cortex as a defense
against adversarial attacks on audio. We apply several white-box iterative
optimization-based adversarial attacks to an implementation of Amazon Alexa's
HW network, and a modified version of this network with an integrated cortical
representation, and show that the cortical features help defend against
universal adversarial examples. At the same level of distortion, the
adversarial noises found for the cortical network are always less effective for
universal audio attacks. We make our code publicly available at
https://github.com/ilyakava/py3fst.
- Abstract(参考訳): 本稿では,聴覚野の計算モデルを用いて,音声に対する逆攻撃に対する防御法を提案する。
我々は、Amazon AlexaのHWネットワークの実装にいくつかのホワイトボックス反復最適化ベースの敵攻撃を適用し、このネットワークの修正版に統合された皮質表現を適用し、この皮質機能は普遍的な敵の例を守るのに役立つことを示す。
同じレベルの歪みでは、皮質ネットワークで検出される敵のノイズは常に普遍的なオーディオ攻撃には効果がない。
コードはhttps://github.com/ilyakava/py3fst.comで公開しています。
関連論文リスト
- Push-Pull: Characterizing the Adversarial Robustness for Audio-Visual
Active Speaker Detection [88.74863771919445]
我々は、音声のみ、視覚のみ、および音声-視覚的敵対攻撃下でのAVASDモデルの脆弱性を明らかにする。
また,攻撃者が現実的な相手を見つけるのを困難にするため,新たな音声・視覚的相互作用損失(AVIL)を提案する。
論文 参考訳(メタデータ) (2022-10-03T08:10:12Z) - Mel Frequency Spectral Domain Defenses against Adversarial Attacks on
Speech Recognition Systems [33.21836814000979]
本稿では,メルスペクトル領域を用いた音声特異的防音について検討し,新しい防音法「メル領域ノイズフラッディング(MDNF)」を提案する。
MDNFは音声信号の再合成に先立って音声のメルスペクトルに付加雑音を適用する。
プロジェクテッド勾配降下(PGD)やカルリーニ・ワグナー(CW)攻撃などの強力なホワイトボックス攻撃に対する防御実験を行った。
論文 参考訳(メタデータ) (2022-03-29T06:58:26Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Attack on practical speaker verification system using universal
adversarial perturbations [20.38185341318529]
本研究は,提案する対人摂動を,相手が話しているときに別個の音源として演奏することにより,現実的な話者検証システムにより,相手を対象話者と誤認することを示す。
2段階のアルゴリズムが提案され、テキストに依存しない普遍的対向摂動を最適化し、認証テキスト認識にはほとんど影響を与えない。
論文 参考訳(メタデータ) (2021-05-19T09:43:34Z) - Universal Adversarial Training with Class-Wise Perturbations [78.05383266222285]
敵の訓練は 敵の攻撃を防御するために 最も広く使われる方法です
この作業では、UAPがすべてのクラスを等しく攻撃しないことがわかります。
我々は,対人訓練におけるクラスワイドUAPの利用を提案することで,SOTA UATを改善した。
論文 参考訳(メタデータ) (2021-04-07T09:05:49Z) - WaveGuard: Understanding and Mitigating Audio Adversarial Examples [12.010555227327743]
本稿では,ASRシステムに対する敵入力を検出するフレームワークであるWaveGuardを紹介する。
本フレームワークは,音声変換機能を組み込んで原音声と変換音声のasr転写を解析し,逆入力を検出する。
論文 参考訳(メタデータ) (2021-03-04T21:44:37Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Adversarial Attacks against Neural Networks in Audio Domain: Exploiting
Principal Components [0.0]
今日広く使われている音声とテキストのニューラルネットワークは、敵の攻撃を誤分類する傾向がある。
我々は、Connectionist Temporal Classification Loss Functionを介して敵対的な波形を作成し、Mozillaによって実装された音声からテキストへのニューラルネットワークであるDeepSpeechを攻撃した。
構築した25個の逆波の形式に対して、100%逆成功率(DeepSpeechによるゼロ成功分類)を達成する。
論文 参考訳(メタデータ) (2020-07-14T12:35:03Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Detecting Audio Attacks on ASR Systems with Dropout Uncertainty [40.9172128924305]
我々の防衛は、最適化された摂動と周波数マスキングによって生成された攻撃を検出することができることを示す。
我々は、MozillaのCommonVoiceデータセット、UrbanSoundデータセット、およびLibriSpeechデータセットの抜粋に対する防御をテストする。
論文 参考訳(メタデータ) (2020-06-02T19:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。