論文の概要: Towards Resistant Audio Adversarial Examples
- arxiv url: http://arxiv.org/abs/2010.07190v1
- Date: Wed, 14 Oct 2020 16:04:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 14:41:25.383790
- Title: Towards Resistant Audio Adversarial Examples
- Title(参考訳): レジスト・オーディオ・アドバイザリの事例に向けて
- Authors: Tom D\"orr, Karla Markert, Nicolas M. M\"uller, Konstantin B\"ottinger
- Abstract要約: 生成プロセスの欠陥により、最先端の逆例生成手法が過度な適合を引き起こすことが判明した。
我々は,この欠陥を緩和するアプローチを考案し,異なるオフセットを持つ逆例の生成を改善する方法を見出した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples tremendously threaten the availability and integrity of
machine learning-based systems. While the feasibility of such attacks has been
observed first in the domain of image processing, recent research shows that
speech recognition is also susceptible to adversarial attacks. However,
reliably bridging the air gap (i.e., making the adversarial examples work when
recorded via a microphone) has so far eluded researchers. We find that due to
flaws in the generation process, state-of-the-art adversarial example
generation methods cause overfitting because of the binning operation in the
target speech recognition system (e.g., Mozilla Deepspeech). We devise an
approach to mitigate this flaw and find that our method improves generation of
adversarial examples with varying offsets. We confirm the significant
improvement with our approach by empirical comparison of the edit distance in a
realistic over-the-air setting. Our approach states a significant step towards
over-the-air attacks. We publish the code and an applicable implementation of
our approach.
- Abstract(参考訳): 敵対的な例は、機械学習ベースのシステムの可用性と整合性を非常に脅かす。
このような攻撃の可能性は画像処理の分野ではまず観察されているが、近年の研究では、音声認識もまた敵対的攻撃の影響を受けやすいことが示されている。
しかし、空隙を確実につなぐ(例えば、逆の例をマイクで録音すると機能させる)ことは、研究者を遠ざけている。
生成プロセスの欠陥により、ターゲット音声認識システム(例えば、Mozilla Deepspeech)のバイナリ操作により、最先端の対向的なサンプル生成手法が過度に適合していることが判明した。
我々は,この欠陥を緩和するアプローチを考案し,異なるオフセットを持つ逆例の生成を改善する方法を見出した。
実環境下での編集距離の実証的比較により,本手法の大幅な改善を確認した。
われわれのアプローチは空襲に対する大きな一歩だ。
私たちはこのアプローチのコードと適用可能な実装を公開します。
関連論文リスト
- Constructing Semantics-Aware Adversarial Examples with a Probabilistic Perspective [4.168954634479465]
本稿では,敵対例の生成過程において,意味論の主観的理解を分布として組み込むための確率論的視点を提案する。
本手法は画像の全体的意味を保存し,人間の検出を困難にしている。
論文 参考訳(メタデータ) (2023-06-01T05:16:44Z) - Adversarial Examples Detection with Enhanced Image Difference Features
based on Local Histogram Equalization [20.132066800052712]
本稿では,高頻度情報強調戦略に基づく逆例検出フレームワークを提案する。
このフレームワークは、敵の例と通常の例との特徴的差異を効果的に抽出し、増幅することができる。
論文 参考訳(メタデータ) (2023-05-08T03:14:01Z) - The Best Defense is Attack: Repairing Semantics in Textual Adversarial Examples [7.622122513456483]
反応摂動デフォーカス(Rapid)という新しいアプローチを導入する。
ラピッドは、敵の例の偽のラベルを識別し、敵の攻撃者を利用して敵の例のセマンティクスを修復するために、敵の検知器を使用している。
各種攻撃シナリオにおけるRapidの有効性を実証するために,4つの公開データセットを用いて大規模な実験を行った。
論文 参考訳(メタデータ) (2023-05-06T15:14:11Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Removing Adversarial Noise in Class Activation Feature Space [160.78488162713498]
クラスアクティベーション機能空間において,自己監視型対人訓練機構を実装することにより,対人雑音の除去を提案する。
クラスアクティベーション機能空間における敵対例と自然な例の間の距離を最小にするために、デノイジングモデルを訓練する。
経験的評価により, 従来の手法と比較して, 敵対的堅牢性が有意に向上できることが示された。
論文 参考訳(メタデータ) (2021-04-19T10:42:24Z) - Towards Robust Speech-to-Text Adversarial Attack [78.5097679815944]
本稿では,DeepSpeech,Kaldi,Lingvoなど,最先端の音声テキストシステムに対する新たな逆アルゴリズムを提案する。
本手法は, 逆最適化定式化の従来の歪み条件の拡張を開発することに基づいている。
元のサンプルと反対のサンプルの分布の差を測定するこの測定値の最小化は、正統な音声記録のサブスペースに非常に近い作成信号に寄与する。
論文 参考訳(メタデータ) (2021-03-15T01:51:41Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。